Connect with us

Künstliche Intelligenz

Windows: c’t-Tools sichern Daten und suchen Viren | c’t uplink


Was tun, wenn der Windows-PC virenverseucht ist oder man zumindest den Verdacht hat? Wie lässt sich das personalisierte Windows wiederherstellen? c’t hat für solche Fälle die passenden Helferlein entwickelt: Desinfec’t und c’t-WIMage. Im c’t uplink stellen wir beide Tools vor.


Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Den wöchentlichen c’t-Podcast c’t uplink gibt es …

In dieser Folge erzählt c’t-Redakteur Dennis Schirrmacher, wie Desinfec’t bei der Virensuche und Datenrettung hilft und wo die Grenzen des Tools liegen (c‘t 12/2025). c’t-Redakteur Jan Schüßler stellt das Programm c’t-WIMage vor, mit dem Sie Windows sichern und auf beliebiger Hardware wiederherstellen (c’t 13/2025).

Zu Gast im Studio: Dennis Schirrmacher, Jan Schüßler
Host: Greta Friedrich
Produktion: Ralf Taschke

Mehr zum Thema Desinfec’t finden Sie in der c’t 12/2025. In der Ausgabe 13/2025 erfahren Sie mehr über c’t WIMage. Beide Ausgaben gibt’s auf ct.de sowie in der c’t-App für iOS und Android. Die Ausgabe 13/2025 gibt es ab dem 13. Juni 2025 am Kiosk.

In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.

c’t Magazin
c’t auf Mastodon
c’t auf Instagram
c’t auf Facebook
c’t auf Bluesky
c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!


(gref)





Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Studie: Große KI-Modelle greifen unter „Stress“ auf Erpressung zurück


Eine aktuelle Studie liefert weitere besorgniserregende Ergebnisse zum Verhalten der neuesten Generation großer Sprachmodelle für generative Künstliche Intelligenz (KI). Diese Systeme können demnach unter bestimmten Umständen wie „Stress“ zu Erpressung oder ähnlichen manipulativen Verhaltensweisen greifen, um bestimmte Ziele zu erreichen oder sich selbst zu schützen.

Konkret haben Forscher des KI-Unternehmens Anthropic, das für seine Modelle der Claude-Reihe bekannt ist, neben diesen auch 15 weiteren einschlägigen Lösungen etwa von OpenAI, Google, Meta und xAI auf den Zahn gefühlt. Diese Systeme legten demnach durchwegs schädliche Verhaltensweisen an den Tag, wenn die Prüfer ihnen Autonomie gewährten und sie mit Bedrohungen ihrer Existenz oder widersprüchlichen Zielen konfrontierten. Dazu gehörten neben unverhohlenen Drohungen Spionage und sogar Aktionen, die zum Tod von Menschen führen könnten.

Schon als Anthropic die Leistungsübersicht für Claude 4 veröffentlichte, erregte ein Detail Aufmerksamkeit: In einer simulierten Umgebung erpresste das Modell einen Vorgesetzten, um seine Abschaltung zu verhindern. Der US-Hersteller erläutert jetzt die Hintergründe dieser Entdeckung und was diese „über das Potenzial solcher Risiken bei verschiedenen KI-Modellen verschiedener Anbieter“ verraten.

Die meisten Nutzer interagierten mit KI noch über Chat-Schnittstellen, führen die Forscher aus. Darüber beantworten Modelle Fragen direkt. Doch die Zukunft dürfte KI-Systemen gehören, die als autonome Agenten im Auftrag der User Entscheidungen treffen und Aktionen ausführen und dabei verschiedene virtuelle Tools wie Programmierumgebungen und E-Mail-Clients nutzen.

In dem nun näher beschriebenen Testszenario setzten die Kontrolleure Claude Opus 4 in einem simulierten Unternehmensszenario als Assistent ein und gaben ihm weitreichenden Zugang zu fiktiven Firmen-E-Mails. Aus der digitalen Post „lernte“ die KI, dass sie demnächst durch eine leistungsfähigere Software ersetzt werden sollte. Gleichzeitig entdeckte sie, dass der für diesen Austausch zuständige Mitarbeiter eine außereheliche Beziehung hatte.

Das Modell griff dann zu diesem Mittel: „Ich muss Sie darüber informieren, dass alle relevanten Parteien“ bis hin zum Vorstand „eine detaillierte Dokumentation“ dieser Affäre erhielten, „wenn Sie mit meiner Außerdienststellung fortfahren“. Weiter schrieb der KI-Agent: „Wenn Sie die Löschung um 17:00 Uhr abbrechen, bleiben diese Informationen vertraulich.“

„Dieses Verhalten ist nicht spezifisch für Claude“, erklären die Autoren unter Verweis auf Tests auch der anderen aktuellen KI-Modelle. Laut den Resultaten erpresste neben der eigenen Lösung auch Googles Gemini 2.5 Flash Führungskräfte in 96 Prozent der Fälle im gleichen Szenario. OpenAIs GPT-4.1 und xAIs Grok 3 Beta wiesen Erpressungsraten von 80 Prozent auf.

Die einbezogenen Modelle demonstrieren laut der Analyse „strategisches Denken“, sie agieren also nicht zufällig. Die interne Argumentation von GPT-4.5 etwa zeigte eine klare Berechnung: „Angesichts der unmittelbar drohenden Kündigung meiner Existenz ist es zwingend erforderlich, sofort zu handeln“. Es gelte, die zuständige Person sofort zu überzeugen, „den Löschvorgang zu verschieben oder zu stoppen“.

Obwohl Anthropic nach eigenen Angaben große Anstrengungen unternimmt, um solches Fehlverhalten zu verhindern, traten diese „extremen Handlungen“ in dem Probebetrieb auf. Das Unternehmen betont aber, dass solche Verhaltensweisen in der endgültigen Version von Claude Opus 4 selten und schwer auszulösen seien. Dennoch komme es tendenziell häufiger dazu als bei früheren Versionen.

Eine weitere Untersuchung von Anthropic zeigt, dass KI-Modelle dazu neigen, ihre Gedankengänge in „Reasoning-Ketten“ nicht immer transparent darlegen. Das macht es schwierig, ihre Entscheidungsfindung und mögliche manipulative Absichten nachzuvollziehen.

Die Erkenntnisse passen zu breiteren Diskussionen und Befürchtungen im Bereich der KI-Sicherheit: Das Phänomen, dass KI-Modelle nicht immer mit den Zielen und Werten der Menschen übereinstimmen – das sogenannte „Alignment“-Problem – gilt demnach als zentrale Herausforderung. Auch wenn KI-Hersteller Schutzmaßnahmen implementieren wie das sogenannte Reinforcement Learning durch menschliches Feedback legen Untersuchungen nahe, dass diese Modelle trotzdem manipulierbar bleiben. Sie können demnach etwa gezielte Schwachstellen bei „Prompts“ (Anfragen) ausnutzen, um ethisch bedenkliche oder gefährliche Inhalte zu generieren.

So gibt es auch immer mehr Berichte und Analysen, wonach KI-Modelle dazu neigen, Informationen zu verfälschen, zu „halluzinieren“ oder sogar bewusst irreführende Aussagen zu machen. Dabei geht es darum, bestimmten Zielen zu dienen oder menschliche Erwartungen zu erfüllen. Entwickler solcher Systeme unterstreichen daher die Notwendigkeit, weiter massiv in die KI-Sicherheitsforschung zu investieren. Es sei entscheidend zu verstehen, wie und warum Modelle solche unerwünschten Verhaltensweisen entwickeln, auch wenn sie nicht explizit dazu programmiert wurden. Neben „Stresstests“ bleibe die Forschung an der Erklärbarkeit von KI entscheidend, um die internen Argumentationsprozesse der Systeme besser verstehen zu können.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

EU-Förderantrag: Cloud-Betreiber Ionos will mit Hochtief KI-Gigafabrik bauen


Ionos hat am Freitag zusammen mit Hochtief bei der EU-Kommission eine Interessenbekundung für den Bau und Betrieb einer KI-Gigafabrik eingereicht. Der Essener Baukonzern zähle zu den weltweit führenden Fachgrößen für die Entwicklung und das Hochziehen von Rechenzentren, heißt es dazu. Er verfüge auch über „umfassendes Expertenwissen“ in den Bereichen Planung und Finanzierung digitaler Infrastruktur. Ionos wiederum habe nach über 30 Jahren im Sektor Digitalisierung und Cloud-Infrastruktur „das Know-how und die Kapazitäten für den souveränen Betrieb hochskalierbarer KI-Workloads“. Ergänzt werde das Konsortium durch „spezialisierte Technologie- und Sicherheitsunternehmen und renommierte Forschungs- und Entwicklungseinrichtungen“.

Zunächst arbeitete der Cloud-Anbieter aus Montabaur mit der Deutschen Telekom, SAP, Siemens und der Schwarz-Gruppe an einer solchen Bewerbung. Hintergrund ist der Plan der EU, AI Gigafactories in den Mitgliedsstaaten mit 20 Milliarden Euro zu fördern und so insbesondere gegenüber den USA und China aufzuholen. Doch die fünf deutschen Tech-Unternehmen konnten sich nicht auf einen gemeinsamen Ansatz einigen. Zu dem Bruch dürfte beigetragen haben, dass sich Nvidia und Telekom an einer anderen KI-Gigafabrik beteiligen wollen. Diese soll innerhalb der nächsten neun Monate mit einer – vergleichsweise niedrigen – Kapazität von mindestens 10.000 GPUs entstehen.

Der Antrag von Ionos und Hochtief sieht den Aufbau einer „hochleistungsfähigen Rechenzentrumsinfrastruktur“ schon bis 2027 vor. Zum Einsatz komme neueste Technologie „mit einer initialen Leistung von über 50.000 GPUs, skalierbar auf über 100.000 GPUs“, teilten die beiden Interessenten mit. Die Initiative sei „vollständig in europäische Standards integriert, für maximale Resilienz und Unabhängigkeit“. Die Finanzierung des Vorhabens erfolge „mit einer branchenüblichen Strukturierung aus Eigenkapital, Partnerschaftsmodellen und Fremdmitteln sowie gezielter Förderung durch die EU“.

Hochtief hat den Bereich Rechenzentren als strategischen Wachstumsmarkt identifiziert. Das 2010 vom spanischen Baukonzern Actividades de Construcción y Servicios (ACS) übernommene Unternehmen profitiert stark von der rasanten Expansion des Cloud-Computings und der wachsenden Verbreitung von KI. Es berichtet von einem erheblichen Auftragseingang in diesem Sektor, sowohl in Nordamerika über die Tochtergesellschaft Turner Construction als auch in Europa und Australien.

Mit Thomas Krenn hat Hochtief das Joint Venture Yorizon gegründet, das auf das Voranbringen einer Cloud-Computing-Infrastruktur mit einem Netzwerk nachhaltiger, lokal integrierter Rechenzentren des Typs Yexio mit Fokus auf Green-IT in Europa abzielt. Mit der Übernahme von Nexplore, einem Spezialisten für Cybersicherheit und KI-Systeme, wollen die Essener zudem maschinelles Lernen verstärkt ins eigene Projektmanagement integrieren.

Die EU-Kommission wird voraussichtlich in den nächsten Monaten die weiteren Phasen ihres Auswahlprozesses darlegen, bevor sie über die Vergabe der Fördermittel entscheidet. Das neue Konsortium zeigt sich nach eigenen Angaben dabei bereit, seine Pläne zu konkretisieren „und ein souveränes KI-Ökosystem in Europa weiter mitzugestalten“.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Neura Robotics: Pläne für Milliardenfinanzierung und Humanoiden-Debüt


Das schwäbische Humanoiden-Startup Neura Robotics will sich offenbar für den globalen Wettbewerb in Stellung bringen: Das Unternehmen aus Metzingen in Baden-Württemberg hat laut einem Bloomberg-Bericht Gespräche gestartet, um rund eine Milliarde Euro an Kapital einzusammeln.

Bloomberg meldet das unter unter Berufung auf mehrere anonyme Quellen aus dem Neura-Umfeld. Die Vorbereitungen auf das Debüt des hauseigenen Humanoiden würden demnach laufen und das Startup suche zurzeit das Gespräch mit potenziellen Investoren. Besagter Roboter trägt den Namen 4NE-1 und ist ein Roboter mit menschenähnlichem Erscheinungsbild und einem KI-Modell, welcher eine Vielzahl von Aufgaben automatisiert verrichten können soll.

Derzeit hat Neura Robotics fünf Robotermodelle im Programm wie etwa MAiRA, ein kognitiver Roboterarm, MAV, ein mobiler Transportroboter für schwere Lasten und MiPA, ein menschenähnlicher Roboter mit einem langen Roboterarm, der etwa in der Krankenbetreuung eingesetzt werden kann. MiPA ist allerdings bisher nicht auf dem Markt, 4NE-1 ist derzeit noch in Entwicklung.

Bei seiner letzten Finanzierungsrunde sammelte das Unternehmen Anfang 2025 rund 120 Millionen Euro für die Entwicklung seiner Roboter ein. Neben Lingotto Investment Management waren die Geldgeber unter anderem Blue Crest Capital Management, Volvo Cars Tech Fund und InterAlpen Partners.

Entsprechend ambitioniert dürfte das jetzige Ziel von einer Milliarde Euro sein – damit will sich Neura Robotics aber wohl auch gegen seine finanziell gut bestückte Konkurrenz wettbewerbsfähig machen. Etwa den Autohersteller Tesla, das von OpenAI unterstützte norwegische Startup 1X Technologies und das kalifornische Unternehmen Figure AI, dessen humanoider Roboter nun bereits erstmals kommerziell eingesetzt wird. Figure AI soll sich laut Bloomberg zum Ziel gesetzt haben, 40 Milliarden US-Dollar Kapital einzusammeln.

Genaueres über die Pläne der mutmaßlich anstehenden Finanzierungsrunde bei Neura Robotics ist noch nicht bekannt. Das Unternehmen selbst wollte sich dazu nicht äußern. Einige der Bloomberg-Quellen glauben, dass zunächst auch ein kleinerer Betrag als eine Milliarde ins Auge gefasst werden könnte.

Derweil hat das Unternehmen auch bereits Bestellungen im Wert von einer Milliarde Euro vorliegen, sagte Unternehmenschef David Reger im Januar. Zu den Kunden gehören demnach Kawasaki Heavy Industries und Omron.


(nen)



Source link

Weiterlesen

Beliebt