Künstliche Intelligenz
Jugendschutz: OpenAI und Anthropic erweitern Sicherheit
OpenAI passt erneut an, wie ChatGPT auf Minderjährige reagiert. Dafür werden die sogenannten Model Spec angepasst – darin ist das erwünschte Verhalten des Chatbots festgehalten. Laut OpenAI haben Jugendliche aufgrund ihrer Entwicklung andere Bedürfnisse als Erwachsene. Dem will man nun gerecht werden. Auch Anthropic nimmt Änderungen vor. Während bei ChatGPT die Altersangabe freiwillig geschieht, will Anthroppic nun selbst anhand des Verhaltens der Nutzer herausfinden, ob jemand noch unter 18 Jahre alt ist.
Weiterlesen nach der Anzeige
Das neue Verhalten von ChatGPT betrifft zunächst 13- bis 17-Jährige. Unter 13-Jährigen ist die Nutzung von ChatGPT untersagt. Wenn Minderjährige mit dem Chatbot kommunizieren, soll dieser der Sicherheit der Jugendlichen nun immer oberste Priorität geben – auch wenn es Konflikte mit anderen Zielen geben könnte, schreibt OpenAI im Blogbeitrag. Was diese anderen Ziele sind, bleibt dabei unklar. Vermutlich geht es darum, dass Chatbots grundsätzlich lieber eine Antwort geben als keine, denn das erhöht ihre Chancen, richtigzuliegen. Und richtigzuliegen ist das bisher oberste Ziel.
Außerdem lässt die Aussage vermuten, dass es doch im Sinne von OpenAI ist, dass Menschen eher mehr Zeit mit ChatGPT verbringen. Das streitet CEO Sam Altman selbst bisher ab. Er sagt, im Gegensatz zu Social-Media-Plattformen wolle man Nutzer nicht halten, Funktionen, wie vorgeschlagene weiterführende Fragen und Nachfragen vom Chatbot selbst, wirken aber mindestens ähnlich wie endlose Feeds und vorgeschlagene Beiträge.
Jugendliche sollen zudem immer auch als solche behandelt werden. ChatGPT ist aufgefordert, transparent zu machen, warum welche Reaktion folgt. Bei auftauchenden Problemen lautet die Anweisung immer, dass Jugendliche sich Hilfe suchen sollen – bei Menschen.
Problematisch jedoch: Jugendliche müssen nicht angeben, noch minderjährig zu sein, wenn sie ChatGPT nutzen wollen. Es gibt zwar bereits einen Eltern-Modus und Anpassungen für Jugendliche. Wenn diese aber zum Beispiel gar nicht erst angemeldet sind oder bei der Altersangabe schwindeln, greifen auch keine Maßnahmen.
Anthropic trainiert Claude auf suizidale Gespräche
Anthropic möchte es anders machen. Zunächst einmal ist die Nutzung von Claude sowieso erst 18-Jährigen erlaubt. Zusätzlich jedoch will das Unternehmen nun bei Verdacht auf Minderjährige Nutzerkonten sperren. „Suptile Anzeichen“ würden laut Anthropic genutzt, um das Alter zu bestimmen.
Weiterlesen nach der Anzeige
Da es auch Erwachsenen schlecht gehen kann, kommt auch Claude mit einer Reihe Sicherheitsmaßnahmen. Die ähneln jenen von OpenAI. Anthropic sagt klar, sobald es um Suizid und Selbstverletzung geht, soll Claude die sogenannte „Sycophancy“ ablegen. Das ist die Tendenz, Nutzer immer eher zu bestätigen in dem, was sie sagen. Auch Claude soll auf menschliche Hilfe und Beratungsstellen verweisen.
Während OpenAI nicht ganz klarmacht, wie die Angaben aus den Model Spec in den Chatbot fließen, sagt Anthropic, sie nutzten zwei Wege, um die Sicherheitsmaßnahmen zu implementieren. Zum einen stecken Anweisungen im Systemprompt. Das ist ein Set an Anweisungen, das automatisch vor jeder Nutzeranfrage quasi vom Chatbot abgearbeitet wird. Zum anderen wird im Reinforcement Learning dem Modell ein erwünschtes Verhalten antrainiert. Konkret bekommt das Modell eine Belohnung für das richtige Verhalten. Es werden also Beispiele trainiert.
Obendrauf ist ein „Classifier“ unterwegs, der Chats auf Auffälligkeiten hin durchsucht. Auch OpenAI hat bereits erklärt, Chats zu kontrollieren. Die Sicherheitsmaßnahmen der Chatbots werden derzeit massiv ausgebaut. Das geschieht unter anderem, weil sich auch der Druck auf die Anbieter deutlich erhöht hat. In den USA gibt es konkret Klagen gegen OpenAI – es geht um eine Art Beihilfe zum Suizid. Aber auch der grundsätzliche Jugendschutz und Gefahren für junge Menschen sowie Erwachsene werden diskutiert. Das betrifft alle KI-Anbieter.
Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.
(emw)
Künstliche Intelligenz
iX-Workshop: Windows Server absichern und härten
Windows-Server sind essenziell für die IT vieler Unternehmen und zunehmend Ziel von Cyberangriffen. Eine professionelle Härtung ist daher unerlässlich – auch, um regulatorische Vorgaben und Sicherheitsstandards für Betriebssysteme und Identitätssysteme wie Active Directory oder Entra ID zu erfüllen.
Weiterlesen nach der Anzeige
Im Praxisworkshop Windows Server absichern und härten lernen Sie, wie Sie Ihre Windows Server-Systeme effizient und nachhaltig härten können. Sie erhalten einen umfassenden und praxisnahen Einblick in die Konzepte der Systemhärtung und lernen, wie Sie Windows Server von Grund auf und prozessorientiert absichern, welche Unterschiede zwischen manueller und zentraler Konfiguration bestehen und warum die Härtung über Gruppenrichtlinien/GPOs oft ineffizient ist. Darüber hinaus erfahren Sie, welche Anforderungen sich aus regulatorischen Vorgaben ergeben und wie Sie Schutzmaßnahmen in Ihre Infrastruktur integrieren können.
Interaktive und praxisnahe Übungen
Der Workshop ist stark praxisorientiert und kombiniert theoretische Einheiten mit vertiefenden Übungen, wie z.B. die Anwendung des Open Source Tools AuditTAP und die Erstellung einer Hardening GPO auf Basis von CIS. Darüber hinaus arbeiten Sie an konkreten Fallbeispielen und diskutieren typische Fallstricke in Hardening-Projekten. So sammeln Sie praktische Erfahrungen und können das Gelernte direkt in Ihrer eigenen Arbeit anwenden.
Dieser Workshop richtet sich an Systemadministratoren, CISOs und IT-Sicherheitsexperten, die ihre Kenntnisse im Bereich Absicherung und Hardening von Windows Server Systemen erweitern möchten.
Der Workshop wird von Matthias Laux, Analyst im Bereich Secure Configuration bei der FB Pro GmbH, und Nils Berg, IT Security Consultant bei der TEAL Technology Consulting GmbH, geleitet. Beide Trainer sind auf präventive IT-Sicherheit, insbesondere Systemhärtung, spezialisiert, betreuen Kunden in den Bereichen Active Directory, PKI und Cloud und unterstützen sie dabei, ihr Sicherheitsniveau zu verbessern und Angriffe frühzeitig zu erkennen.

(ilk)
Künstliche Intelligenz
Bundeskartellamt verhängt 2025 weniger Bußgelder
Deutschlands oberste Wettbewerbshüter haben in diesem Jahr verhältnismäßig wenig Bußgelder wegen Kartellvergehen verhängt. Wie das Bundeskartellamt in Bonn mitteilte, waren es rund zehn Millionen Euro und damit deutlich weniger als die im Vorjahr verhängten 26 Millionen Euro.
Weiterlesen nach der Anzeige
Die jährliche Gesamtsumme der Bußgelder schwankt stark. Das liegt auch am Zufall – ist ein großes Verfahren zu Ende, ist die Bußgeldsumme in dem entsprechenden Jahr sehr hoch und in dem Folgejahr mangels ähnlich großer anderer Verfahren niedrig. 2023 hatte die Bußgeldsumme nur 2,8 Millionen Euro betragen – ein niedriger Wert, der damals auch mit coronabedingten Verfahrensverzögerungen begründet wurde.
Milliardenrekord ist schon lange her
Im vergangenen Jahrzehnt waren die Summen, die das Kartellamt den Firmen wegen Kartellvergehen aufgebrummt hat, deutlich höher: Der Jahresrekord lag 2014 bei 1,1 Milliarden Euro. 2019 waren es 848 Millionen Euro – gut drei Viertel entfielen damals auf Geldstrafen im Rahmen eines Verfahrens gegen Stahlhersteller wegen Preisabsprachen bei Blechen.
Dieses Jahr fiel der Audioprodukte-Hersteller Sennheiser negativ auf, die Firma aus Niedersachsen ist vor allem für ihre Kopfhörer bekannt. Sennheiser wurde zu einer Zahlung von sechs Millionen Euro verdonnert. Der Vorwurf: Die Firma habe jahrelang Einfluss auf Händler genommen, um höhere Preise im Laden zu erreichen.
Kartellabsprachen sind grundsätzlich verboten: Sie hemmen den Wettbewerb, was beim Kunden in der Regel zu höheren Kosten führt. Kartellanten machen häufig jahrelang gemeinsame Sache, bis einem von ihnen die Sache nicht mehr geheuer ist und er sich an das Kartellamt wendet, um reinen Tisch zu machen. Dann profitiert er von der Kronzeugenregelung: Als Erster, der auspackt, kommt er ohne Geldbuße davon. Hilfreich für die Ermittlungen der Wettbewerbshüter ist zudem ein System, über das sich Menschen anonym melden können. Bei diesem System gingen in diesem Jahr 600 Hinweise ein.
Die rechtlichen Anforderungen an die Kartellverfahren seien hoch und belastbare Nachweise seien nicht immer leicht zu erbringen, sagte Behördenchef Andreas Mundt. „Umso wichtiger sind moderne Ermittlungsansätze, der perspektivische Einsatz neuer IT-gestützter Auswertungsinstrumente und ein Hinweisgebersystem, das sich erneut als sehr wirkungsvoll erwiesen hat.“
Weiterlesen nach der Anzeige
(olb)
Künstliche Intelligenz
Apple-Bugs: AirDrop-Ausfall, AirPods-Pro-3-Knacken und Studio-Display-Flickern
Mehrere Probleme verschiedener Schweregrade ärgern derzeit Nutzer von iOS- und macOS-Geräten. Außerdem scheint es weiterhin einen Hardware-nahen Bug mit den populären AirPods Pro der dritten Generation zu geben, der schon seit mehreren Monaten bekannt ist, von Apple aber per Firmware-Update bislang nicht behoben werden konnte.
Weiterlesen nach der Anzeige
AirDrop will nicht mehr
Mit iOS 26.2 und macOS 26.2 wollte Apple eigentlich den Versand von Daten über das Kurzstreckenprotokoll AirDrop verbessern. Spam-Attacken mit unerwünschten Botschaften sollen verhindert werden, es aber dennoch möglich sein, Kontakte kurzfristig freizugeben. So kann man nun AirDrop-Sendungen ganz sperren, diese für zehn Minuten freigeben sowie nur Kontakten ermöglichen. Bringt man zwei Geräte zusammen, ist zudem erlaubt, mittels Code eine 30-tägige Freigabe zu erlauben.
In diesem Zusammenhang hat Apple offenbar einen Bug eingebaut, der insbesondere den Versand von AirDrop-Inhalten zwischen Macs und iPhones betrifft. In der „Mac & i“-Redaktion konnten wir dies mit zwei Geräten eines Redakteurs nachstellen. Dabei war es nicht mehr möglich, von einem Sequoia-Mac Inhalte an ein iPhone zu senden – AirDrop war nur für Kontakte freigegeben. Erst die allgemeine Freigabe von AirDrop-Nachrichten für zehn Minuten behob das Problem. Der Fehler scheint nicht nur mit älteren macOS-Versionen aufzutreten, sondern auch im Zusammenspiel von macOS 26.2 und iOS 26.2. Was genau den Bug auslöst, bleibt unklar. Vor iOS 26.2 gab es beim Verbindungsaufbau keine Probleme, beide Geräten „kennen“ zudem den Kontakt, handelt es sich doch um ein und dieselbe Person.
Flackern und Knacken
Mit macOS 26 bis hin zur aktuellen Version macOS 26.2 berichten Nutzer weiterhin über unregelmäßig auftretende Flacker-Probleme, wie es in Apples offiziellem Supportforum heißt. Diese treten insbesondere auf, wenn eine App einen hellen, weißen Hintergrund aufweist. Teilweise tritt der Darstellungsfehler aber auch in anderen Fällen auf. Das Flackern ist dabei nur kurz, angeblich tritt es mit macOS 26.2 gehäuft auf. Ein Hardware-Problem ist es offenbar nicht, da die Geräte unter macOS 15 sauber liefen. Wie verbreitet das Problem ist, blieb zunächst unklar; ein Studio Display in der Redaktion von Mac & i zeigte den Fehler zunächst nicht.
Schließlich scheint es Apple immer noch nicht gelungen zu sein, einen „Knack-Bug“ bei den AirPods Pro der dritten Generation zu beheben. Dieser sorgt für Störgeräusche etwa im Flugzeug oder der Bahn und soll mit Druckveränderungen zusammenhängen – und tritt auch dann auf, wenn keine Musik läuft. Es kommt zu einer Art Rauschen, das unvermittelt auftritt. Berichte dazu gibt es bereits seit Oktober. Zum Teil wurden Einheiten der Stöpsel daraufhin ausgetauscht, doch auch neue Modelle zeigten das Problem. Aktuell wird von einem Firmware-Bug ausgegangen. Apple hatte im Dezember zuletzt ein neues Update (Version 8B30) verbreitet. Es landet nach einigen Tagen automatisch auf den Stöpseln, sofern sie mit einem iPhone oder Mac verbunden sind.
Weiterlesen nach der Anzeige
(bsc)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
