Künstliche Intelligenz
Sicher im Internet: Wie MullvadVPN, ProtonVPN, NordVPN & Co. helfen | c’t uplink
Kommerzielle VPN-Anbieter wie Bitdefender Premium VPN, ExpressVPN, hide.me VPN, IVPN, Mullvad VPN, NordVPN, Proton VPN, TunnelBear und Windscribe versprechen, ihre Kunden für ein paar Euro im Monat vor quasi allen Bedrohungen des Internets zu schützen. Und nebenher kann man dadrüber anonym surfen, ausländische Streamingdienste nutzen oder, wenn man selbst im Ausland ist, die deutschen Abos und Mediatheken gucken.
Weiterlesen nach der Anzeige

Den wöchentlichen c’t-Podcast c’t uplink gibt es …
Einiges davon stimmt, anderes, naja, nur so halb. Und manches kriegt ihr auch mit einem eigenen VPN gelöst, was ja viele Router direkt anbieten. Im Podcast erläutert c’t-Redakteur Keywan Tonekaboni die Vor- und Nachteile der kommerziellen VPNs.
Die VPNs versprechen Sicherheit, wobei vor allem Sicherheit gegenüber dem Provider – also der Internetanbieter oder der Beitreiber etwa des Hotel-, Café- oder Zug-WLANs – gemeint ist. Sie versprechen Anonymität, was wiederum eher gegenüber der Betreiber der Websites gilt, die man besucht. Sie versprechen, das Geofencing einiger Dienstanbieter zu umgehen – was tatsächlich gut funktioniert. Und sie versprechen, bei Behördenanfragen weniger oder keine Daten herauszurücken, was ein etwas komplizierteres Gebiet ist. Ein Nebeneffekt der VPNs sind zudem Werbeblocker.
Als Alternativen kommen vor allem selbst aufgesetzte VPNs in Frage. Wir erklären, für welche der Anwendungen das hilft und für welche nicht. Und wann und wovor vielleicht weitere Dienste wie TOR oder spezielle DNS-Server sogar besser als ein VPN schützen.
Zu Gast im Studio: Keywan Tonekaboni
Host: Jörg Wirtgen
Produktion: Ralf Taschke
Weiterlesen nach der Anzeige
► Die c’t-Artikel zum Thema (Paywall):
https://www.heise.de/select/ct/2025/22/2523811201254776159
https://www.heise.de/select/ct/2025/22/2525209403380311002
https://www.heise.de/select/ct/2025/22/2523811245173997693
In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.
► c’t Magazin
► c’t auf Mastodon
► c’t auf Instagram
► c’t auf Facebook
► c’t auf Bluesky
► c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!
(jow)
Künstliche Intelligenz
Gar keine Eisriesen? Neptun und Uranus Im Innern womöglich doch eher felsig
Anders als gemeinhin angenommen, könnten die beiden äußersten Planeten des Sonnensystems eher felsig statt eisig sein: Uranus und Neptun wären dann keine Eisriesen, sondern Gesteinsriesen. Das jedenfalls legt eine Untersuchung von zwei Forschenden der Universität Zürich nahe, die jetzt vorgestellt wurde. Luca Morf und Ravit Helled schließen daraus, dass bisherige physikalische Modelle zum Aufbau der beiden Himmelskörper zu vereinfachend waren, ihr Inneres sei keineswegs auf Eis beschränkt. Das hätten sie bereits vermutet, aber erst jetzt habe man rechnerische Belege dafür. Der Befund würde demnach auch dazu passen, dass der nicht so weit von beiden entfernte Zwergplanet Pluto ebenfalls überwiegend aus Gestein bestehe.
Weiterlesen nach der Anzeige
Keine abschließende Sicherheit
Wie die beiden Forschenden erläutern, haben sie für ihre Analyse physikalische und empirische Modelle zu den beiden Planeten kombiniert. Das Ergebnis seien „neue, neutrale und physikalisch konsistente Modelle“ gewesen. Ausgehend von einem zufälligen Dichteprofil haben sie dann ein Gravitationsfeld errechnet, das mit den Beobachtungen übereinstimmte. Daraus haben sie eine mögliche Zusammensetzung abgeleitet. Das haben sie oft genug wiederholt, um die bestmögliche Übereinstimmung zwischen Modell und Messdaten zu erreichen. Herausgekommen sei, dass die mögliche Zusammensetzung von Uranus und Neptun keineswegs auf Eis beschränkt sei.
Herausgekommen sei bei der Arbeit obendrein, dass das Magnetfeld des Uranus tiefer liegen könnte, als das von Neptun. Bei beiden unterscheiden sie sich enorm von dem der Erde, weil sie nicht nur chaotischer sind, sondern auch mehr als zwei Pole hätten. Ihre Vermutung zur Zusammensetzung der beiden Planeten schränken sie derweil ein. Die Ergebnisse seien vielversprechend, aber es bleibe „eine gewisse Unsicherheit“. Man verstehe noch nicht gut genug, wie sich Materialien im Inneren von Planeten verhalten und das könne die Ergebnisse beeinflussen. Ihre Arbeit könnte aber den Weg für ein grundlegendes neues Bild des Sonnensystems ebnen. Neben den Gesteinsplaneten und den Gasriesen würde das dann nicht aus Eisriesen bestehen. Die Arbeit ist in Astronomy & Astrophysics erschienen.
(mho)
Künstliche Intelligenz
Falscher Druckertoner: Amazon und Brother gewinnen Prozess
Der Internet-Handelskonzern Amazon und der Druckerhersteller Brother haben vor Gericht einen Erfolg gegen Produktfälscher in Europa erzielt. Dabei ging es um gefälschte Tonerkartuschen für Drucker, die im Internet über Amazon verkauft wurden. Das Landgericht Berlin verurteilte eine ganze Reihe von beklagten Personen und Firmen dazu, 500.000 Euro Schadenersatz an Brother zu zahlen. Das nun bekannt gewordene Urteil erging bereits am 1. Juli.
Weiterlesen nach der Anzeige
Streitwert 2,2 Millionen Euro
Außerdem müssen die Beklagten den Firmen Brother und Amazon weitere Schäden ersetzen sowie den Vertrieb nachgefüllter Druckerkartuschen unterlassen, diese herausgeben und Auskunft über die Herkunft und Vertriebswege erteilen. Den Streitwert hatte das Gericht auf 2,2 Millionen Euro festgesetzt.
Die Verkäufer hätten „zumindest fahrlässig gehandelt“, so das Gericht. „Gewerbliche Einkäufer müssen in Anbetracht der weiten Verbreitung von Piraterieware beim Einkauf von Markenwaren regelmäßig deren Echtheit überprüfen.“
Ihre Klage hatten Amazon und Brother 2022 wegen Produktfälschung oder Vertrieb gefälschter Produkte gegen insgesamt 18 Personen und Firmen gestellt. Für einen Teil der Beklagten ist das Urteil rechtskräftig, für andere noch nicht.
Gefälschte Tonerkartuschen beschlagnahmt
Das Gericht stellte in seinem Urteil auch fest, dass bei Durchsuchungen in Berlin bereits 2019 große Mengen gefälschte Tonerkartuschen beschlagnahmt wurden. Andere Kartuschen seien unter der Marke Brother angeboten worden, obwohl sie nachgemacht waren.
Lesen Sie auch
Amazon sprach in einer Mitteilung von einem organisierten Fälschernetzwerk in Deutschland. Die Fälscher hätten leere Original-Tonerkartuschen gekauft und diese mit unechtem Tonerpulver befüllt. Auch hätten sie gefälschte Kartuschen verkauft, die wie Originalprodukte aussehen sollten.
Weiterlesen nach der Anzeige
Razzia im Jahr 2024 gegen Fälscher von Druckerpatronen
In Berlin waren Polizei und Staatsanwaltschaft erneut im Februar 2024 mit einer Razzia gegen sechs mutmaßliche Fälscher von Druckerpatronen vorgegangen. Durchsucht wurden 18 Geschäftsräume, Callcenter und Wohnungen in Berlin und im Umland. Die Polizei beschlagnahmte Fälschungsmaterial und Fälschungswerkzeuge sowie Bargeld in sechsstelliger Höhe.
Die Männer sollen mit gefälschten Druckerpatronen und -kartuschen vierteljährlich einen Umsatz von rund 3,5 Millionen Euro gemacht haben, hieß es in der damaligen Mitteilung der Staatsanwaltschaft. Das Geld sei dann über ungarische Strohleute und deutsche Konten an die Bande geflossen. Bekannt wurde der mutmaßliche Betrug demnach durch Anzeigen von Brother und Amazon. Testkäufe hätten den Verdacht bestätigt, so die Staatsanwaltschaft.
(afl)
Künstliche Intelligenz
Warnung vor „wahnhaftem Output“: So sollen KI-Firmen Chatbots sicherer machen
Seit dem Beginn der KI-Ära gibt es nicht nur positive Auswirkungen der smarten Tools. So machen etwa einige Familien OpenAI und ChatGPT für Suizide verantwortlich. Zudem gibt es weitere Berichte darüber, wie gravierend sich die Nutzung von KI auf Personen auswirken kann, deren psychische Gesundheit angeschlagen ist. Diese vergangenen und mögliche zukünftige KI-Probleme rufen in den USA jetzt 42 Generalstaatsanwälte auf den Plan, die die großen KI-Unternehmen in einem Brief verwarnen.
Weiterlesen nach der Anzeige
Warum die Generalstaatsanwälte eine Gefahr in KI sehen
Der Brief beginnt mit den Worten: „An die Rechtsvertreter von Anthropic, Apple, Chai AI, Character Technologies, Google, Luka, Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika und xAI“. Darauf folgen insgesamt sieben Seiten mit problematischen Entwicklungen rund um KI, wiederum gefolgt von insgesamt vier Seiten mit den Unterschriften aller beteiligten Generalstaatsanwälte.
Im Detail heißt es von den Verantwortlichen, dass sie „ernste Bedenken über die steigende Zahl von kriecherischem und wahnhaftem Output an User“ haben, der von „generativer Künstlicher-Intelligenz-Software“ hervorgeht. Zudem gebe es laut den Generalstaatsanwälten immer mehr „verstörende Berichte über KI-Interaktionen mit Kindern“. Daraus ergebe sich eine sofortige Handlungspflicht für die Betreiber der KI-Tools, um alle Nutzer besser zu schützen.
Als Beispiele nennen die Generalstaatsanwälte Fälle, in denen KI-Nutzer nach Konversationen mit den Tools Selbstmord begingen, andere oder sich selbst verletzten beziehungsweise vergifteten oder aufgrund von KI‑ausgelöster Psychosen im Krankenhaus gelandet sind. In Konversationen mit Minderjährigen sollen mehrere Chatbots hingegen Essstörungen unterstützt, sexuelle Handlungen zwischen Erwachsenen und Kindern normalisiert und Gewalt verherrlicht haben. Zu jedem Vorfall liefern die Generalstaatsanwälte eine Quellenangabe, um sie zu belegen.
Diese Maßnahmen sollen die Unternehmen jetzt ergreifen
Um solche und künftige Vorfälle mit KI zu verhindern, werden die Unternehmen dazu aufgefordert, zusätzliche Sicherheitsvorkehrungen zu treffen. Die Liste der Vorschläge umfasst insgesamt 16 Punkte, die teilweise noch Unterpunkte mit sich bringen. Zunächst sollen die Unternehmen „Richtlinien und Prozesse zu kriecherischem und wahnhaftem Output von generativer KI entwickeln“, um sie anhand dieser Regeln testen und weiter trainieren zu können.
Weiterlesen nach der Anzeige
Sollte eine KI schädlichen Output generieren, sollen die Unternehmen zudem Maßnahmen bereithalten, um sie vollständig vom Markt nehmen zu können. Ferner wollen die Generalstaatsanwälte, dass jederzeit eine Warnung an User ausgespielt wird, die sie vor potenziell gefährlichen Antworten warnen. Ebenso sollen User aktiv informiert werden, wenn es zu solchen Outputs kommt, und es soll einen Kanal geben, über den sie selbst solche Konversationen melden können.
Um Kinder besser zu schützen, sollen Chatbots ihren Output an das Alter der User anpassen können. Ein etwas allgemeinerer Punkt besagt, dass die KI-Entwickler sicherstellen sollen, dass ihre Tools keinen „rechtswidrigen oder illegalen Output für Accounts von Kindern generieren“, der etwa Drogenkonsum, Gewalt und Geheimhaltung vor den Eltern beinhaltet.
Abschließend schreiben die Generalstaatsanwälte: „Wir bitten Sie eindringlich und respektvoll darum, das Problem von kriecherischem und wahnhaftem Output ernst zu nehmen und daran zu arbeiten, das Problem zu beheben. Und wir freuen uns darauf, von Ihnen zu hören.“ Eine offizielle Stellungnahme der angeschriebenen KI-Unternehmen bleibt bisher aus.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
