Künstliche Intelligenz
Neuer Wiederherstellungsassistent in macOS 26
Bereits seit Längerem ist bekannt, dass Apple für iPhone und iPad innerhalb von iOS 26 einen sogenannten Recovery Assistant eingebaut hat. Der Wiederherstellungsassistent soll dabei helfen, Startprobleme bei den Geräten zu beheben, ohne dass man zu einem weiteren iPhone oder einem Mac greifen müsste. Mit macOS 26 alias Tahoe gibt es das Feature allerdings auch auf dem Mac, wie aus einem frisch publizierten Supportdokument nach Erscheinen des neuen Betriebssystems hervorgeht.
Assistant kommt automatisch
Die Funktion wird Apple auch in späteren macOS-Versionen anbieten, kündigte der Hersteller an – in macOS 15 steht sie jedoch noch nicht zur Verfügung. Das neue Werkzeug lässt sich zwar händisch aufrufen (über den Ordner Dienstprogramme im Wiederherstellungsmodus, siehe unten), es sollte aber normalerweise automatisch erscheinen. Der Wiederherstellungsassistent taucht immer dann auf, sobald der Mac „ein bestimmtes Verhalten“ zeigt.
Dann startet der Mac neu und man landet im Recovery Assistant. Dieser sucht dann nach möglichen Problemen und versucht „diese zu beheben, wenn sie gefunden werden“, heißt es dann. Eine Internetanbindung ist – wie schon beim iPhone bekannt – notwendig, außerdem ein Administrator-Passwort zur Entsperrung der SSD.
iCloud-Inhalte müssen womöglich wiederhergestellt werden
Im Rahmen des Wiederherstellungsprozesses lädt der Recovery Assistant aktuelle Informationen (und möglicherweise andere Software) von Apples Servern herunter. „Wenn der Wiederherstellungsvorgang abgeschlossen ist, meldet der Wiederherstellungsassistent, dass Ihr Gerät erfolgreich wiederhergestellt wurde, dass es nicht wiederhergestellt werden konnte oder dass keine bekannten Probleme gefunden wurden.“ Anschließend wird der Mac neu gestartet.
Zu beachten ist allerdings, dass gegebenenfalls lokal gespeicherte iCloud-Inhalte verloren gehen. Warum das so ist, bleibt unklar. Ist dies der Fall, gibt es in den Systemeinstellungen eine Benachrichtigung und man kann die Daten wiederherstellen. Der Recovery Assistant kann nicht alle Probleme beheben. Unter Umständen muss macOS neu installiert oder die Start-SSD repariert werden. Hierzu gibt es wie gehabt den Wiederherstellungsmodus (Recovery Mode).
(bsc)
Künstliche Intelligenz
Jugendschutz: OpenAI und Anthropic erweitern Sicherheit
OpenAI passt erneut an, wie ChatGPT auf Minderjährige reagiert. Dafür werden die sogenannten Model Spec angepasst – darin ist das erwünschte Verhalten des Chatbots festgehalten. Laut OpenAI haben Jugendliche aufgrund ihrer Entwicklung andere Bedürfnisse als Erwachsene. Dem will man nun gerecht werden. Auch Anthropic nimmt Änderungen vor. Während bei ChatGPT die Altersangabe freiwillig geschieht, will Anthroppic nun selbst anhand des Verhaltens der Nutzer herausfinden, ob jemand noch unter 18 Jahre alt ist.
Weiterlesen nach der Anzeige
Das neue Verhalten von ChatGPT betrifft zunächst 13- bis 17-Jährige. Unter 13-Jährigen ist die Nutzung von ChatGPT untersagt. Wenn Minderjährige mit dem Chatbot kommunizieren, soll dieser der Sicherheit der Jugendlichen nun immer oberste Priorität geben – auch wenn es Konflikte mit anderen Zielen geben könnte, schreibt OpenAI im Blogbeitrag. Was diese anderen Ziele sind, bleibt dabei unklar. Vermutlich geht es darum, dass Chatbots grundsätzlich lieber eine Antwort geben als keine, denn das erhöht ihre Chancen, richtigzuliegen. Und richtigzuliegen ist das bisher oberste Ziel.
Außerdem lässt die Aussage vermuten, dass es doch im Sinne von OpenAI ist, dass Menschen eher mehr Zeit mit ChatGPT verbringen. Das streitet CEO Sam Altman selbst bisher ab. Er sagt, im Gegensatz zu Social-Media-Plattformen wolle man Nutzer nicht halten, Funktionen, wie vorgeschlagene weiterführende Fragen und Nachfragen vom Chatbot selbst, wirken aber mindestens ähnlich wie endlose Feeds und vorgeschlagene Beiträge.
Jugendliche sollen zudem immer auch als solche behandelt werden. ChatGPT ist aufgefordert, transparent zu machen, warum welche Reaktion folgt. Bei auftauchenden Problemen lautet die Anweisung immer, dass Jugendliche sich Hilfe suchen sollen – bei Menschen.
Problematisch jedoch: Jugendliche müssen nicht angeben, noch minderjährig zu sein, wenn sie ChatGPT nutzen wollen. Es gibt zwar bereits einen Eltern-Modus und Anpassungen für Jugendliche. Wenn diese aber zum Beispiel gar nicht erst angemeldet sind oder bei der Altersangabe schwindeln, greifen auch keine Maßnahmen.
Anthropic trainiert Claude auf suizidale Gespräche
Anthropic möchte es anders machen. Zunächst einmal ist die Nutzung von Claude sowieso erst 18-Jährigen erlaubt. Zusätzlich jedoch will das Unternehmen nun bei Verdacht auf Minderjährige Nutzerkonten sperren. „Suptile Anzeichen“ würden laut Anthropic genutzt, um das Alter zu bestimmen.
Weiterlesen nach der Anzeige
Da es auch Erwachsenen schlecht gehen kann, kommt auch Claude mit einer Reihe Sicherheitsmaßnahmen. Die ähneln jenen von OpenAI. Anthropic sagt klar, sobald es um Suizid und Selbstverletzung geht, soll Claude die sogenannte „Sycophancy“ ablegen. Das ist die Tendenz, Nutzer immer eher zu bestätigen in dem, was sie sagen. Auch Claude soll auf menschliche Hilfe und Beratungsstellen verweisen.
Während OpenAI nicht ganz klarmacht, wie die Angaben aus den Model Spec in den Chatbot fließen, sagt Anthropic, sie nutzten zwei Wege, um die Sicherheitsmaßnahmen zu implementieren. Zum einen stecken Anweisungen im Systemprompt. Das ist ein Set an Anweisungen, das automatisch vor jeder Nutzeranfrage quasi vom Chatbot abgearbeitet wird. Zum anderen wird im Reinforcement Learning dem Modell ein erwünschtes Verhalten antrainiert. Konkret bekommt das Modell eine Belohnung für das richtige Verhalten. Es werden also Beispiele trainiert.
Obendrauf ist ein „Classifier“ unterwegs, der Chats auf Auffälligkeiten hin durchsucht. Auch OpenAI hat bereits erklärt, Chats zu kontrollieren. Die Sicherheitsmaßnahmen der Chatbots werden derzeit massiv ausgebaut. Das geschieht unter anderem, weil sich auch der Druck auf die Anbieter deutlich erhöht hat. In den USA gibt es konkret Klagen gegen OpenAI – es geht um eine Art Beihilfe zum Suizid. Aber auch der grundsätzliche Jugendschutz und Gefahren für junge Menschen sowie Erwachsene werden diskutiert. Das betrifft alle KI-Anbieter.
Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.
(emw)
Künstliche Intelligenz
Kommentar: Wenn Copilot zum KO-Pilot wird
Ich gebe zu, ich bin nicht nett zu Copilot. Ein Textbaustein mit dem Namen STFU expandiert automatisch zu einem ganzen Satz, den ich dem Chatbot jedes Mal um die Ohren haue, wenn sich der naseweise Sohn von Karl Klammer a.k.a. Clippy wieder einmal einmischt. Egal, wo man hintritt, trifft man garantiert ein Helferlein, das auf den Namen Copilot hört. In Microsoft Edge, der Windows-Suche, Word, Excel, PowerPoint, OneNote, in Notepad oder Paint. Überall steht das Ding im Weg. Man kann mühelos zehn der schreiend bunten Icons auf dem Desktop gleichzeitig anzeigen.
Weiterlesen nach der Anzeige
Noch gibt es an vielen Stellen Schalter, mit denen man Copilot abdrehen kann. Das wird nicht lange so weitergehen, denn Microsoft versucht, die Nutzung anzuschieben, jeweils mit sehr kleinen Kontingenten versehen, damit der Kunde endlich zahlt. Für die großen Kunden platziert man dazu sogenannte Customer Success Manager. Die haben den Auftrag, die Nutzung von Microsoft-Produkten anzuschieben.
Strohtexte
Microsoft ist der Hersteller, der mir als PC-Nutzer am meisten auf den Senkel geht. Dabei ist die Seuche bei allen amerikanischen Unternehmen ausgebrochen. Google setzt das Messer gleich der Melkkuh „Suche“ an den Hals. Bei der wurden gute Treffer sukzessive durch Werbung ersetzt. Den Rest frisst jetzt die generative KI auf.

Seit mehr als 30 Jahren schreibt Volker Weber (vowe) für c’t, iX und heise online.
Es ist aber nicht nur die unglaubliche Aufdringlichkeit, mit der Softwarehersteller den Anwendern ihre Ware aufs Auge drücken, die mir gehörig gegen den Strich geht. Der Schwall generierter Bilder und Videos untergräbt unser Vertrauen in Bilder, die mit so viel Stroh ausgepolsterten Texte lassen jede Persönlichkeit untergehen. Man schaue sich einfach mal einen beliebigen Feed auf LinkedIn an, bis es einem graust.
Das klingt nicht nur alles so beliebig, es ist auch oft grottenschlecht. So steht im Eingabefenster „Copilot kann Fehler machen. Die Nutzung von Copilot bedeutet, dass Sie den Nutzungsbedingungen zustimmen“. Rechtsanwälte und Richter können ein Lied von Klageschriften singen, die von generativer KI zusammenphantasiert wurden, inklusive erfundener Quellen.
Ein sehr spaßiger Comicstrip von Tom Fishburne bringt die Absurdität auf den Punkt: „Schau, diese KI macht aus einem Bulletpoint eine lange E-Mail.“ – „Cool, die KI fasst mir diese lange E-Mail zu einem Bulletpoint zusammen.“
Weiterlesen nach der Anzeige
Microsoft-CEO Satya Nadella behauptete im April 2025 beim LlamaCon AI Event, 30 Prozent des Microsoft-Codes würden mittlerweile von KI geschrieben. Gehässige Beobachter würden dazu anmerken, dass man das merkt. Ich wünsche mir einen großen Schalter in Windows, der Copilot von meinem PC verbannt.
Kapitalkuhhandel
Der Treiber dieses ganzen Wahnsinns ist der Kapitalmarkt. Wagniskapital bekommt nur, wer eine KI-Story hat – auch wenn die einzig darauf abzielt, möglichst große Geldhaufen in kürzester Zeit in glühende Asche zu verwandeln.
Jeder will dabei sein. Nachdem Mark Zuckerberg Milliarden in das Metaverse gepumpt hat, ohne einen Return zu sehen, schwenkt er nun auf generative KI um. Der gesamte Cashflow 2026 wird dafür allokiert. Google und Microsoft haben immerhin prächtige Einnahmen, aus denen sie immer mehr abzweigen. Sam Altman gelingt mit OpenAI bisher, immer mehr zukünftige Gelder einzuwerben. Besorgniserregend dabei ist, dass es sich oft um Zirkelgeschäfte handelt: „Ich werde deine GPUs kaufen, wenn du in meine Firma investierst.“
Wie soll sich das jemals lohnen? Mir fällt nur eins ein: Zigmillionen Arbeitsplätze müssen vernichtet werden. Diese nicht mehr zu zahlenden Personalkosten könnten höher sein als die wahren Kosten des KI-Ausbaus. Das Top-Management vieler Unternehmen ist geradezu beseelt davon, Bürojobs zu rationalisieren. Man kann nur hoffen, dass das mal ein gut sichtbares Unternehmen probiert, um damit krachend zu scheitern. Generative KI ähnelt Junior-Unternehmensberatern: Sicheres Auftreten bei kompletter Ahnungslosigkeit. Die Anzeichen mehren sich, dass sich mit LLMs zwar Intelligenz simulieren, aber nicht schaffen lässt.
(vowe)
Künstliche Intelligenz
Samsung liefert One UI 8 für ältere Galaxy-Watches
Samsung stattet nun auch ältere Galaxy-Watches mit dem jüngsten One-UI-Stand 8 aus. Entgegen ursprünglichen Annahmen kommen auch Besitzerinnen und Besitzer der Galaxy-Watch-4-Reihe in den Genuss der aktuellen Android-Fassung. Allerdings wohl zum letzten Mal.
Weiterlesen nach der Anzeige
Mitte Juni wurden Samsungs Pläne für das Update auf One UI 8 Watch bekannt, als erste Beta-Versionen für jüngere Smartwatches verteilt wurden. So können die Uhren mit One UI 8 nun helfen, eine optimale Schlafenszeit zu finden, um am Folgetag die Wachphase zu maximieren. Neuere Galaxy-Watches sollen zudem „Belastung des Gefäßsystems“ erfassen. Der Laufcoach soll insbesondere Einsteigern helfen, „abgestimmtes Intensitätstraining und verletzungsvorbeugende Übungen“ zu betreiben.
Unter der Haube
One UI 8 basiert auf Googles Wear OS 6, das im Oktober auf den Pixel-Smartwatches des Herstellers gelandet ist. Es bringt eine deutlich frischere Optik mit, „Material 3 Expressive“. Besonders beim Ladevorgang fällt die ins Auge, anstatt einer spartanischen Anzeige gibt es nun den vom Smartphone bekannten bunten Fortschrittsbalken. Auf- oder Herab-Scrollen durch Benachrichtigungen oder Menüs ist nun mit einem hübsch anzusehenden Lupeneffekt versehen. Der Stromverbrauch soll optimiert sein, Google verspricht für Pixel-Smartwatches zehn Prozent mehr Laufzeit.

Die einzelnen Softwarestände auf Samungs Galaxy Watch 5 nach Update auf One UI 8.
(Bild: heise medien)
Googles Wear OS 6 basiert wiederum auf dem aktuellen Android 16. Auch wenn das Update kurz vor Weihnachten verfügbar wurde – die Sicherheitspatches sind auf dem Stand 1. Oktober 2025.
Während dieses große Versionsupdate offenbar das letzte ist, das der Hersteller für die Reihe-4-Galaxy-Watches herausgeben wird – die erschienen immerhin im Jahr 2021, mit dem Update-Versprechen für vier Jahre –, dürften Sicherheitsupdates gegebenenfalls für ein weiteres Jahr folgen.
Weiterlesen nach der Anzeige
Ein aktuellerer Patchlevel wäre sicher wünschenswert, jedoch haben Angriffe auf Smartwatches bislang noch nicht für größeres Aufsehen gesorgt. Vielleicht ist das für Samsung Grund genug, hier nicht auf die jüngsten Sicherheitsaktualisierungen zu setzen.
(dmk)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
