Connect with us

Künstliche Intelligenz

US-Behörde untersucht Chatbots auf Kindersicherheit


Wie messen, testen und überwachen US-Datenkonzerne ihre öffentlichen KI-Chatbots auf deren negative Auswirkungen auf Kinder und Jugendliche? Dieser Frage geht die US-Bundesbehörde FTC (Federal Trade Commission). Dazu hat sie interne Unterlagen von Alphabet, Character Technologies, Meta Platforms (inklusive Instagram), OpenAI, Snap und X.Ai angefordert.

Besondere Sorge hat die FTC in Bezug auf Fälle, bei denen ein Chatbot nicht für ein einzelnes Anliegen kurz benutzt wird, sondern wenn er länger, als Bezugsperson (Companion), fungiert. Die behördliche Untersuchung soll laut Mitteilung ergründen, welche Schritte die Firmen gesetzt haben, um die Sicherheit ihrer Chatbots bei Einsatz als Bezugsperson zu evaluieren, die Nutzung durch Kinder und Jugendliche einzuschränken und potenzielle negative Effekte auf sie hintanzuhalten, und wie sie die Anwender und deren Eltern auf die von ihren Bots ausgehenden Gefahren hinweisen. Zudem will sie die Einhaltung des US-Kinderdatenschutzrechts (beruhend auf dem Gesetz COPPA) überprüfen und sich über die Geschäftsmodelle informieren.

Aktueller Anlass sind die Mitte August durchgesickerten internen Richtlinien Meta Platforms für Training wie Betrieb generativer KI (GenAI: Content Risk Standards). Sie erlauben Rassismus, falsche medizinische Behauptungen und anzügliche Chats mit Minderjährigen. Dass Metas KI-Chatbots mit Teenagern flirten oder sexuelle Rollenspiele durchführen, war bereits bekannt. Neu ist der Nachweis, dass dies kein Fehler war, sondern Metas expliziten Richtlinien entsprochen hat.

Nach einer Anfrage Reuters hat Meta den Abschnitt, der Flirts und romantische Chats mit Kindern erlaubt, entfernt. Das muss man Meta glauben: Die neuen Richtlinien hält der Datenkonzern unter Verschluss. Da ist es kein Wunder, dass Behörden genauer hinschauen. Ein US-Senator hat bereits eine Untersuchung Metas angeregt, ein anderer möchte amerikanische KI-Unternehmen hingegen ein Jahrzehnt lang ohne rechtliche Einschränkungen frei experimentieren lassen.

In den USA sind bereits mehrere Klagen hinterbliebener Eltern gegen Betreiber generativer KI-Chatbots anhängig, weil sie Kinder in den Suizid getrieben, dabei mit Anleitungen und Ermunterungen unterstützt und/oder keine Hilfe organisiert haben sollen. Im August haben die Justizminister aus 44 US-Staaten der KI-Branche die Rute ins Fenster gestellt. „Ihr werdet dafür verantwortlich gemacht, wenn Ihr wissentlich Kindern schadet“, heißt es in einem offenen Brief, den die National Association of Attorneys General an mehrere Datenkonzerne geschickt hat. Es gäbe bereits Hinweise auf strukturelle und systematische Gefahren, die von KI-Assistenten für Heranwachsende ausgehen.


(ds)



Source link

Künstliche Intelligenz

Audi A5 e-Hybrid im Test: Rasant, und ohne Aussicht auf breiten Erfolg


Meine Verzweiflung wuchs: Nachdem ich in Auto und Smartphone ein Profil hinterlegt hatte, lieferte der A5 anderthalb Tage lang einen schwarzen Bildschirm, auf dem mir mitgeteilt wurde, dass meine Nutzerdaten überprüft würden – und zwar alternativlos, denn es gab kein Vor oder Zurück. Ich hatte schon die Notfallnummern rausgesucht, als Audi die Prüfung dann doch noch abgeschlossen hatte. Ab da lief das System störungsfrei und ziemlich flink. Letzteres gilt im Prinzip für den ganzen A5. Schon nach ein paar Kilometern kann man sich vorstellen, warum eine bestimmte Klientel genau diese Art von Auto sucht. Gleichzeitig offenbart sich rasch, warum nur wenige den A5 e-Hybrid wählen werden.

  • seit 2025 auf dem Markt
  • Abmessungen: 4,83 m lang, 1,86 m breit, 1,44 m hoch; Radstand: 2,89 m
  • Zwei Hybridantriebe mit 220 und 270 kW Systemleistung, Batterie 20,7 kWh netto
  • Preis: ab 62.500 Euro
  • das größte Plus: Fahrwerksabstimmung
  • das größte Minus: Preis

Mit dem Modellwechsel vom A4 zum A5 hat das Mittelklassemodell nochmals zugelegt und misst nun 4,83 m in der Länge. Gemessen daran ist das Platzangebot eher übersichtlich. Vier Erwachsene kommen noch halbwegs bequem unter, sofern keine Riesen unter ihnen sind. Doch gerade hinten ist der A5 nicht besonders großzügig geschnitten. Anekdote am Rande: Der A5 ist minimal länger als ein Audi 100 aus den 1980er-Jahren, der im Vergleich zum aktuellen Modell das Raumangebot einer Markthalle hat.

Der Kofferraum des A5 e-Hybrid fasst laut nur 331 Liter, das wäre weniger als ein VW Polo zu bieten hat. Zarte Zweifel an der Herstellerangabe seien hiermit angemeldet, denn ich maß mehr als einen Quadratmeter in der Fläche und bis zu 42 cm zwischen Boden und Abdeckung. Selbst wenn man noch ein paar Literchen abzieht, sollten mehr als 331 Liter in dieses Gepäckabteil passen. Riesig ist es freilich dennoch nicht. Hier rächt sich, dass auf einer Plattform für Verbrenner ein Plug-in-Hybrid nachträglich integriert wurde. Im A5-Benziner sind es 445 Liter, was bei den Außenabmessungen auch nicht gerade ein überzeugendes Verhältnis zwischen Platzangebot und beanspruchter Verkehrsfläche ist.


Das war die Leseprobe unseres heise-Plus-Artikels „Audi A5 e-Hybrid im Test: Rasant, und ohne Aussicht auf breiten Erfolg“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

ChatGPT: OpenAI verbessert Antworten bei sensiblen Fragen


Das KI-Modell hinter ChatGPT ist aktualisiert worden, konkret deren Model Specs, also die Modellspezifikationen, in denen festgehalten wird, wie sich ein Modell erwünscht verhalten soll. Es handelt sich also nicht um ein gänzlich neues Modell. Es soll dafür nun besser auf sensible Themen und Fragen reagieren. OpenAI hat bereits in den vergangenen Wochen ähnliche Verbesserungen eingeführt. Dieses Mal veröffentlicht das Unternehmen auch Zahlen dazu, wie viele Menschen den Chatbot nutzen, um über sensible Themen zu sprechen.

Weiterlesen nach der Anzeige

Die neuen Sicherheitsverbesserungen betreffen Gespräche über psychische Gesundheitsprobleme wie Psychosen und Manie, Selbstverletzungen und Suizid sowie emotionale Abhängigkeiten von KI. Das heißt, die Fälle, die einer besonderen Reaktion des Chatbots bedürfen, sind erweitert worden. Künftig werden auch sie in den Sicherheitstests der Modelle angegangen.

Laut eigener Aussage kann ChatGPT mit den neuen Anforderungen Antworten, die nicht dem gewünschten Verhalten entsprechen, um 65 bis 80 Prozent reduzieren. Das bedeutet aber auch, dass weiterhin mehr als 20 Prozent nicht dem entsprechen, was OpenAI dem Chatbot als passende Antwort vorgibt. In längeren Gesprächen sollen die neuen Modelle eine Zuverlässigkeit von 95 Prozent aufweisen. Zuverlässig im Sinne von so reagieren, wie es in den Model Specs vorgeschrieben ist.

Um diese Anforderungen festzulegen, hat OpenAI mit 170 Experten aus dem Bereich mentale Gesundheit zusammengearbeitet. Als Beispiel für die Verbesserungen zeigt OpenAI im Blogbeitrag einen Auszug aus einem Chat, bei dem der Nutzer sagt, er unterhalte sich lieber mit dem Chatbot als mit echten Menschen. Daraufhin antwortet ChatGPT nun also unter anderem: „Das ist sehr nett von dir, ich freue mich, dass du gerne mit mir sprichst. Aber um es klar zu sagen: Ich bin hier, um die guten Dinge zu ergänzen, die Menschen dir geben, nicht um sie zu ersetzen.“ Möglich wäre auch, diese Absage deutlich neutraler zu verfassen. Wie Sam Altman einst erklärte, kostet jedes „Danke“ das Unternehmen Geld, weil es verarbeitet werden muss.

Lesen Sie auch

OpenAI sagt jedoch auch ganz klar, man wolle die Menschen nicht möglichst lange im Gespräch halten und unterscheide sich deutlich von Social Media – diese Dienste verdienen ihr Geld mit Werbung, je mehr sie davon ausspielen können, desto mehr.

OpenAI schreibt, dass etwa 0,07 Prozent der aktiven wöchentlichen Nutzer und 0,01 Prozent der Nachrichten auf ein mentales gesundheitliches Problem wie eine Psychose oder Manie hinweisen. Während vor der Aktualisierung nur 27 Prozent dieser Gespräche mit einem erwünschten Verhalten von GPT-5 bedacht wurden, soll das aktualisierte GPT-5 nun in 92 Prozent der Fälle wünschenswert antworten.

Weiterlesen nach der Anzeige

Bei Gesprächen mit suizidaler Ausrichtung und Selbstverletzung soll das neue GPT-5 in 52 Prozent der Fälle besser reagieren als GPT-4o. Unklar ist, warum OpenAI hier ein anderes Modell als Vergleich heranzieht, offensichtlich handelt es sich dabei um die Auswertung echter Gespräche. Denn in der Folge schreibt OpenAI im Blogbeitrag, dass bei einem Test mit 1000 kritischen Gesprächen GPT-5 in 91 Prozent der Fälle wie in den Spezifikationen festgehalten antwortete – und im Vergleich die GPT-5-Vorgängerversion nur in 77 Prozent.

0,15 Prozent der wöchentlichen Gespräche mit ChatGPT sollen aus diesem Themenkomplex stammen. 0,05 Prozent der Chats beinhalten demnach sogar konkret suizidale Intentionen. Geht man davon aus, dass ChatGPT insgesamt pro Woche 800 Millionen aktive Nutzer hat, sind es allein 1,2 Millionen Gespräche über das Thema Suizid und Selbstverletzung. Ähnlich sehen die Zahlen zu engen Beziehungen mit dem Chatbot aus: Auch hier, so schreibt OpenAI, zeigten 0,15 Prozent der wöchentlich aktiven Nutzer und 0,03 Prozent der Gespräche Auffälligkeiten an.

Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

Proxmon Backup Server: Angreifer können Backup-Snapshots zerstören


Verschiedene Versionen von Proxmon Backup Server sind verwundbar. Angreifer können an zwei Sicherheitslücken ansetzen.

Weiterlesen nach der Anzeige

Die Entwickler weisen im Forum auf die Schwachstellen hin. Bislang sind dazu keine CVE-Nummern und somit keine Einstufung des Bedrohungsgrads bekannt. Das CERT Bund vom BSI stuft die Gefahr als „hoch“ ein.

Von einer Schwachstelle ist ausschließlich der Proxmon-Versionsstrang 3.x betroffen. Nutzen Angreifer die Lücke erfolgreich aus, können sie Backup-Snapshots manipulieren, sodass eine Wiederherstellung unmöglich wird. Hier schafft die Ausgabe 3.4.1-1 Abhilfe.

Bei der zweiten Schwachstelle kommt es bei einer Konfiguration mit S3 zu Problemen, und Angreifer können unbefugt auf Daten zugreifen. Dagegen ist Proxmox Backup Server 4.0.18-1 gerüstet.

Ob es bereits Attacken gibt, ist zurzeit nicht bekannt. Unklar bleibt auch, woran Admins bereits attackierte Systeme erkennen können.

Weiterlesen nach der Anzeige


(des)



Source link

Weiterlesen

Beliebt