Künstliche Intelligenz
Software Testing: Dynamische Analyse für Embedded Systems
In dieser Episode des Podcasts Software Testing sprechen Richard Seidl, Alexander Weiss und Martin Heininger über die Praxis moderner Embedded Systems Tests. Geräte im Test zu simulieren hilft, hat aber Grenzen, beispielsweise im Bereich Safety.
Weiterlesen nach der Anzeige
Ein Problem ist die Beobachtbarkeit: Klassische Instrumentierung bläht Code auf und verändert Laufzeiten. Ihr Gegenentwurf lautet Embedded Trace. Die CPU funkt Ereignisse hardwareseitig nach außen, ein Field-Programmable Gate Array (FPGA) wertet live aus. So lässt sich Code-Coverage im Integrationstest auf echter Hardware messen.
Bei diesem Podcast dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.
Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Dynamische Analyse für Embedded Systems – Alexander Weiss, Martin Heininger“ und steht auf YouTube bereit.
(mdo)
Künstliche Intelligenz
ChatGPT: OpenAI verbessert Antworten bei sensiblen Fragen
Das KI-Modell hinter ChatGPT ist aktualisiert worden, konkret deren Model Specs, also die Modellspezifikationen, in denen festgehalten wird, wie sich ein Modell erwünscht verhalten soll. Es handelt sich also nicht um ein gänzlich neues Modell. Es soll dafür nun besser auf sensible Themen und Fragen reagieren. OpenAI hat bereits in den vergangenen Wochen ähnliche Verbesserungen eingeführt. Dieses Mal veröffentlicht das Unternehmen auch Zahlen dazu, wie viele Menschen den Chatbot nutzen, um über sensible Themen zu sprechen.
Weiterlesen nach der Anzeige
Die neuen Sicherheitsverbesserungen betreffen Gespräche über psychische Gesundheitsprobleme wie Psychosen und Manie, Selbstverletzungen und Suizid sowie emotionale Abhängigkeiten von KI. Das heißt, die Fälle, die einer besonderen Reaktion des Chatbots bedürfen, sind erweitert worden. Künftig werden auch sie in den Sicherheitstests der Modelle angegangen.
Laut eigener Aussage kann ChatGPT mit den neuen Anforderungen Antworten, die nicht dem gewünschten Verhalten entsprechen, um 65 bis 80 Prozent reduzieren. Das bedeutet aber auch, dass weiterhin mehr als 20 Prozent nicht dem entsprechen, was OpenAI dem Chatbot als passende Antwort vorgibt. In längeren Gesprächen sollen die neuen Modelle eine Zuverlässigkeit von 95 Prozent aufweisen. Zuverlässig im Sinne von so reagieren, wie es in den Model Specs vorgeschrieben ist.
Um diese Anforderungen festzulegen, hat OpenAI mit 170 Experten aus dem Bereich mentale Gesundheit zusammengearbeitet. Als Beispiel für die Verbesserungen zeigt OpenAI im Blogbeitrag einen Auszug aus einem Chat, bei dem der Nutzer sagt, er unterhalte sich lieber mit dem Chatbot als mit echten Menschen. Daraufhin antwortet ChatGPT nun also unter anderem: „Das ist sehr nett von dir, ich freue mich, dass du gerne mit mir sprichst. Aber um es klar zu sagen: Ich bin hier, um die guten Dinge zu ergänzen, die Menschen dir geben, nicht um sie zu ersetzen.“ Möglich wäre auch, diese Absage deutlich neutraler zu verfassen. Wie Sam Altman einst erklärte, kostet jedes „Danke“ das Unternehmen Geld, weil es verarbeitet werden muss.
Lesen Sie auch
OpenAI sagt jedoch auch ganz klar, man wolle die Menschen nicht möglichst lange im Gespräch halten und unterscheide sich deutlich von Social Media – diese Dienste verdienen ihr Geld mit Werbung, je mehr sie davon ausspielen können, desto mehr.
Millionen Menschen sprechen mit ChatGPT über ihre Probleme
OpenAI schreibt, dass etwa 0,07 Prozent der aktiven wöchentlichen Nutzer und 0,01 Prozent der Nachrichten auf ein mentales gesundheitliches Problem wie eine Psychose oder Manie hinweisen. Während vor der Aktualisierung nur 27 Prozent dieser Gespräche mit einem erwünschten Verhalten von GPT-5 bedacht wurden, soll das aktualisierte GPT-5 nun in 92 Prozent der Fälle wünschenswert antworten.
Weiterlesen nach der Anzeige
Bei Gesprächen mit suizidaler Ausrichtung und Selbstverletzung soll das neue GPT-5 in 52 Prozent der Fälle besser reagieren als GPT-4o. Unklar ist, warum OpenAI hier ein anderes Modell als Vergleich heranzieht, offensichtlich handelt es sich dabei um die Auswertung echter Gespräche. Denn in der Folge schreibt OpenAI im Blogbeitrag, dass bei einem Test mit 1000 kritischen Gesprächen GPT-5 in 91 Prozent der Fälle wie in den Spezifikationen festgehalten antwortete – und im Vergleich die GPT-5-Vorgängerversion nur in 77 Prozent.
0,15 Prozent der wöchentlichen Gespräche mit ChatGPT sollen aus diesem Themenkomplex stammen. 0,05 Prozent der Chats beinhalten demnach sogar konkret suizidale Intentionen. Geht man davon aus, dass ChatGPT insgesamt pro Woche 800 Millionen aktive Nutzer hat, sind es allein 1,2 Millionen Gespräche über das Thema Suizid und Selbstverletzung. Ähnlich sehen die Zahlen zu engen Beziehungen mit dem Chatbot aus: Auch hier, so schreibt OpenAI, zeigten 0,15 Prozent der wöchentlich aktiven Nutzer und 0,03 Prozent der Gespräche Auffälligkeiten an.
Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.
(emw)
Künstliche Intelligenz
Proxmon Backup Server: Angreifer können Backup-Snapshots zerstören
Verschiedene Versionen von Proxmon Backup Server sind verwundbar. Angreifer können an zwei Sicherheitslücken ansetzen.
Weiterlesen nach der Anzeige
Diverse Sicherheitsprobleme
Die Entwickler weisen im Forum auf die Schwachstellen hin. Bislang sind dazu keine CVE-Nummern und somit keine Einstufung des Bedrohungsgrads bekannt. Das CERT Bund vom BSI stuft die Gefahr als „hoch“ ein.
Von einer Schwachstelle ist ausschließlich der Proxmon-Versionsstrang 3.x betroffen. Nutzen Angreifer die Lücke erfolgreich aus, können sie Backup-Snapshots manipulieren, sodass eine Wiederherstellung unmöglich wird. Hier schafft die Ausgabe 3.4.1-1 Abhilfe.
Bei der zweiten Schwachstelle kommt es bei einer Konfiguration mit S3 zu Problemen, und Angreifer können unbefugt auf Daten zugreifen. Dagegen ist Proxmox Backup Server 4.0.18-1 gerüstet.
Ob es bereits Attacken gibt, ist zurzeit nicht bekannt. Unklar bleibt auch, woran Admins bereits attackierte Systeme erkennen können.
Weiterlesen nach der Anzeige
(des)
Künstliche Intelligenz
Für „ungefilterte Gedanken“: „Geister-Beiträge“ auf Threads nur einen Tag online
Auf dem Kurznachrichtendienst Threads von Meta kann man jetzt Beiträge veröffentlichen, die nach 24 Stunden automatisch aus dem Netz genommen werden. Damit könne man jetzt „ungefilterte Gedanken“ publik machen, begründen die Verantwortlichen den Schritt. Die „Geister-Beiträge“ („ghost posts“) werden von einer gestrichelten Sprechblase umschlossen und damit visuell merklich von den normalen abgegrenzt. Gleichzeitig wird darunter nicht angezeigt, wie oft die Beiträge mit einem Herzen versehen wurden, das bekommt nur der Verfasser oder die Verfasserin angezeigt. Antworten auf solche Beiträge landen in dem jeweiligen Postfach und sind damit ebenfalls nicht öffentlich.
Weiterlesen nach der Anzeige
Weniger Risiko beim Schreiben
Mit den „Geister-Beiträgen“ will Meta die User auf Threads dazu animieren, Gedanken oder Sichtweisen zu veröffentlichen, ohne sich vorher darüber Gedanken machen zu müssen, wie perfekt die sind, oder ob die auch noch in Jahren öffentlich sein sollen. Damit könne man leichter etwas Neues probieren und spontaner schreiben. Nach 24 Stunden werden die Beiträge archiviert und sind nur noch für die Person einsehbar, die sie erstellt hat. Gegenüber TechCrunch hat Meta ausgeführt, dass die Beitragsart mehr Konversationen ermöglichen soll, weil sie das Risiko verringern, dass den Verantwortlichen alte Beiträge später nicht mehr genehm sind oder sogar für Probleme sorgen.
Die Neuerung auf Threads ist jetzt nicht der erste Versuch eines sozialen Netzwerks mit einem automatischen Verfallsdatum für Beiträge. Schon Ende 2020 wollte Twitter Nutzern und Nutzerinnen mit den sogenannten „Fleets“ die Angst vor dem Veröffentlichen nehmen. Aber schon wenige Monate später wurden die nach 24 Stunden verschwindenden Tweets wegen des geringen Interesses wieder zurückgezogen. Meta hat dagegen mit verschwindenden Beiträgen auf Instagram, Facebook und WhatsApp gute Erfahrung gesammelt. Auf Threads wurde die neue Funktion jetzt zur Einführung fleißig ausprobiert, ob das Interesse daran bleibt, muss sich aber erst noch zeigen.
(mho)
-
UX/UI & Webdesignvor 2 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 2 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
UX/UI & Webdesignvor 1 WocheIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 MonatFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
