Connect with us

Künstliche Intelligenz

BKA warnt vor gewaltverherrlichenden Online-Gruppen für Jugendliche


Das Bundeskriminalamt (BKA) warnt davor, dass Kinder und Jugendliche immer häufiger ins Visier von Online-Gruppen geraten, die sie gezielt in einen Kreislauf aus Drohungen, Erpressung und Selbstverletzungen verwickeln. Das gehe bis zum Suizid oder strafbaren Handlungen wie Körperverletzungen oder der Misshandlung von Tieren, so das BKA.

Demnach sprechen die Täter gezielt Kinder oder Jugendliche an, die bereits psychisch auffällig seien, oder gesellschaftlichen Minderheiten angehörten. Die Täter, meist selbst noch jung, versuchen, das Vertrauen der Opfer zu gewinnen, um diese schrittweise zu manipulieren. Dafür würden sie soziale Netzwerke, Messenger-Dienste oder Online-Spiele nutzen.

Das BKA verweist dabei auch auf einen aktuellen Fall aus Hamburg. Dort hatte die Polizei einen 20-Jährigen festgenommen, der als Kopf einer pädokriminellen Gruppe agiert haben soll. Die Gruppe habe dabei zahlreiche Kinder über das Internet sexuell missbraucht. Der 20-Jährige selbst soll auf diese Weise einen 13-jährigen US-Amerikaner in den Suizid getrieben haben. Insgesamt werden ihm 120 Straftaten vorgeworfen.


(mack)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Steam nativ für Apple Silicon: Besser zocken auf dem Mac


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im November ist es so weit: Dann feiert Apple Silicon auf dem Mac seinen fünften Geburtstag. Gleichzeitig geht absehbar das Intel-Zeitalter bei Apple zu Ende: macOS 26 wird die letzte Version des Mac-Betriebssystems sein, die noch auf Rechnern mit dem alten Chip läuft. Umso verwunderlicher ist die Tatsache, dass der bekanntermaßen nicht kleine Softwarehersteller Valve es bislang nicht geschafft hat, seinen Gaming-Client Steam auf die ARM-Rechner von Apple zu portieren. Stattdessen verwendet dessen macOS-App seit Jahr und Tag immer noch Apples hauseigene x86-Übersetzungsschicht Rosetta 2. Doch auch bei der Valve Corporation ist man nun fortschrittsgläubig: Der Spielekonzern aus Bellevue, Washington, arbeitet an einer Apple-Silicon-Version von Steam für macOS.

Die frohe Kunde verbreitet Valve auf seiner offiziellen Beta-Website. Denn noch ist der brandneue Client nicht final, sondern nur in einer Vorabversion erhältlich. Die erste Version des Steam-Clients, die nativ unter Apple Silicon läuft, erschien am 12. Juni. Wirklich stabil war die allerdings nicht: In der darauffolgenden Beta vom 16. Juni musste gleich ein erster Crash-Bug behoben werden, zwei Betas weiter dann (am 18. Juni, also gestern) eine Regression, die Updates verunmöglichte. Einzige Lösung dafür: App-Beendigung erzwingen und App neu starten.

Wann der Steam-Client final Apple-Silicon-nativ erscheint, ist bis dato nicht bekannt. Vorteile hat aber bereits die Beta: Sie startet deutlich schneller und selbst die Navigation durch die Anwendung, also Bibliothek und Valve-Store, ist responsiver. Intern handelt es sich übrigens um Chromium-Code, was die Portierung von x86 auf ARM eigentlich hätte erleichtern sollen, doch das war hier augenscheinlich nicht der Fall.

Der Steam-Client dient nur dazu, neue Spiele zu finden und zu erwerben sowie dann zu installieren (gegebenenfalls extern) und zu verwalten. Die eigentlichen Games können wiederum ihre eigene Architektur nutzen.

Entsprechend sind glücklicherweise zahlreiche über Steam verfügbare Titel längst für Apple Silicon angepasst. Damit man den neuen Client einmal ausprobieren kann, muss man zunächst Teil des Betaprogramms werden. Das geht über die Einstellungen. Aber Obacht: Der Download ist über 200 MByte groß.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

Warum humanoide Roboter ihre eigenen Sicherheitsregeln brauchen


Im vergangenen Jahr wurde erstmals ein humanoider Lagerroboter namens Digit für die Handhabung von Kartons bei der US-Firma Spanx eingesetzt. Digit kann Pakete mit einem Gewicht von bis zu 16 Kilogramm zwischen Rollwagen und Förderbändern heben und so seinen menschlichen Kollegen einige der schweren Aufgaben abnehmen. Er arbeitet in einem begrenzten, definierten Bereich, der durch Wände oder Lasersperren von den menschlichen Mitarbeitern getrennt ist.

Und das ist auch notwendig: Digit steht zwar normalerweise sicher auf seinen Roboterbeinen, es kommt aber auch vor, dass er stürzt. Dann funktioniert die charakteristische Rückwärtsbeugung seiner mechanischen Knie nicht. Auf einer Messe im März schien er beispielsweise über einen längeren Zeitraum geschickt Kartons zu transportieren. Dann brach der Humanoide plötzlich zusammen und landete auf dem Betonboden. Alles, was er gerade trug, fiel natürlich ebenfalls herunter.

Das Risiko, dass solche Fehlfunktionen in der Nähe von Menschen auftreten, ist also durchaus vorhanden – und es kann gefährlich werden. Niemand möchte unter einer 1,80 Meter großen und 65 Kilogramm schweren Maschine begraben werden. Dass ein Roboterarm versehentlich auf eine empfindliche Körperstelle trifft, wäre ebenfalls sehr unangenehm. „Die Kehle ist ein gutes Beispiel“, sagt Pras Velagapudi, Chief Technology Officer von Agility Robotics, dem Hersteller von Digit. „Wenn ein Roboter die treffen würde, selbst mit dem Bruchteil der Kraft, die er zum Tragen einer 22 Kilogramm schweren Tragetasche benötigt, könnte er eine Person schwer verletzen.“

Physische Stabilität humanoider Roboter – also die Fähigkeit, nicht umzukippen – gehört dementsprechend zu den wichtigsten Sicherheitsanliegen eines Projekts, das neue Standards für humanoide Roboter erarbeitet. Die Humanoid Study Group der Ingenieursorganisation IEEE argumentiert, dass sich Humanoide in wesentlichen Punkten von anderen Automaten wie Industrierobotern oder bestehenden mobilen Robotiksystemen unterscheiden. Sie machen daher neue Standards notwendig, um die Sicherheit von Bedienpersonal, Endnutzern und der Öffentlichkeit zu gewährleisten.

Die Gruppe hat ihre Ergebnisse gegenüber der US-Ausgabe von MIT Technology Review erstmals öffentlich vorgestellt und plant, ihren vollständigen Bericht im Laufe des Sommers zu veröffentlichen. Darin werden verschiedene Herausforderungen identifiziert, darunter physische und psychosoziale Risiken sowie Fragen wie Datenschutz und Sicherheit, die den Experten zufolge von Normungsorganisationen angegangen werden müssen. Und zwar bevor Humanoide in mehr industriellen Szenarien eingesetzt werden, als das bisher geschieht.

Die Systeme machen derzeit erste vorsichtige Schritte in Richtung Produktiveinsatz. Ultimatives Ziel ist eine enge Zusammenarbeit mit Menschen. Ein Grund dafür, Roboter überhaupt menschenähnlich zu gestalten, ist, dass sie sich so leichter in den von uns geschaffenen Umgebungen zurechtfinden. Das bedeutet, dass sie in der Lage sein müssen, einen Raum mit Menschen zu teilen und nicht nur hinter Schutzbarrieren zu bleiben. Aber zuerst muss sichergestellt werden, dass sie keine Gefahr darstellen.

Ein charakteristisches Merkmal von Humanoiden ist, dass sie „dynamisch stabil“ sein müssen, sagt Aaron Prather, Direktor bei der Normungsorganisation ASTM International und Vorsitzender der IEEE-Expertengruppe. Das bedeutet, dass sie Energie benötigen, um aufrecht bleiben zu können. Sie üben Kraft über ihre Beine (oder andere Gliedmaßen) aus, um das Gleichgewicht zu halten. „In der traditionellen Robotik drückt man bei einem Problem den kleinen roten Knopf, die Stromversorgung wird unterbrochen und der Roboter bleibt stehen“, sagt Prather. „Bei einem Humanoiden geht das nicht wirklich.“ Wenn man das tut, fällt der Roboter wahrscheinlich um – was ein noch größeres Risiko darstellen kann, als ihn weiterlaufen zu lassen.

Aber wie könnte eine Sicherheitsfunktion aussehen, die keine Notbremsung ist? Agility Robotics führt in der neuesten Version von Digit einige neue Funktionen ein, um das Problem des Umkippens zu beheben. Anstatt sofort die Stromversorgung zu unterbrechen (und wahrscheinlich umzufallen), könnte der Humanoide beispielsweise sanft abbremsen, wenn eine Person zu nahe kommt. „Der Roboter muss eine bestimmte Zeit bekommen, um sich in einen sicheren Zustand zu versetzen“, sagt Velagapudi. Vielleicht legt er alles, was er gerade trägt, zuerst ab und geht auf Hände und Knie, bevor er sich ausschaltet.

Verschiedene Roboter könnten das Problem auf unterschiedliche Weise lösen. „Wir wollen nur das Ziel standardisieren, nicht den Weg dorthin“, sagt Federico Vicentini, Leiter der Produktsicherheit bei Boston Dynamics. Vicentini leitet eine Arbeitsgruppe der Internationalen Organisation für Normung (ISO), die ebenfalls einen neuen Standard für die Sicherheit von Industrierobotern entwickelt, die zur Aufrechterhaltung ihrer Stabilität aktiv gesteuert werden müssen (auch Experten von Agility Robotics sind beteiligt). Die Idee ist, klare Sicherheitsanforderungen festzulegen, ohne die Innovationsfreiheit der Roboter- und Komponentenhersteller einzuschränken: „Wie das Problem gelöst wird, bleibt dem Konstrukteur überlassen.“ Der Versuch, universelle Standards festzulegen und gleichzeitig die Gestaltungsfreiheit zu wahren, kann jedoch Herausforderungen mit sich bringen. Zunächst einmal: Wie definiert man überhaupt einen humanoiden Roboter? Muss er Beine haben? Arme? Einen Kopf?

„Eine unserer Empfehlungen lautet, den Begriff ‚Humanoid‘ vielleicht ganz fallen zu lassen“, sagt Prather. Seine Gruppe befürwortet ein Klassifizierungssystem für humanoide Roboter, das deren Fähigkeiten, Verhalten und Verwendungszweck berücksichtigt und nicht ihr Aussehen. Die ISO-Norm, an der Vicentini arbeitet, bezieht sich auf alle industriellen mobilen Roboter „mit aktiv gesteuerter Stabilität“. Dies würde sowohl für den vierbeinigen Spot von Boston Dynamics gelten als auch für den zweibeinigen humanoiden Atlas und könnte ebenso Roboter mit Rädern oder einer anderen Art von Mobilitätskomponente umfassen.

Abgesehen von Fragen der physischen Sicherheit, stellen Humanoide auch eine Herausforderung für die Kommunikation dar. Wenn sie sich den Raum mit Menschen teilen sollen, müssen sie erkennen, wenn jemand ihren Weg kreuzt. Sie müssen ihre eigenen Absichten so kommunizieren, dass jeder verstehen kann, was sie gerade tun. Das ist ähnlich wie beim Auto mit Bremslicht und Blinker. Digit verfügt bereits über Lichter, die seinen Status und seine Fahrtrichtung anzeigen, sagt Velagapudi, aber es brauche noch bessere Anzeigen, wenn er kooperativ und letztlich kollaborativ mit Menschen zusammenarbeiten soll. „Wenn Digit vor Ihnen in einen Gang hineinläuft, möchten Sie davon nicht überrascht werden“, sagt er. Der Roboter könnte Sprachausgaben nutzen, aber Audio allein ist in einer lauten Industrieumgebung nicht praktikabel. Noch verwirrender könnte es werden, wenn sich mehrere Roboter im selben Raum befinden – welcher versucht gerade, unsere Aufmerksamkeit zu erregen?

Es gibt auch einen psychologischen Effekt, der Humanoide von anderen Robotertypen unterscheidet, sagt Prather. Wir vermenschlichen Roboter, die wie wir aussehen. Das ist ganz natürlich, was dazu führen kann, dass wir ihre Fähigkeiten überschätzen und frustriert sind, wenn sie diese Erwartungen nicht erfüllen. „Manchmal lassen wir in puncto Sicherheit nach oder die Erwartungen an das, was der Roboter leisten kann, sind im Vergleich zur Realität zu hoch“, sagt er. Diese Probleme sind besonders gravierend, wenn Roboter Aufgaben übernehmen sollen, die normalerweise menschliche Emotionen oder die Unterstützung schutzbedürftiger Menschen erfordern. Der IEEE-Bericht empfiehlt, dass die Standards Bewertungsmaßstäbe für die „emotionale Sicherheit“ und Richtlinien zur „Minderung von psychischem Stress oder Entfremdung“ enthalten sollten.

Um den Bericht zu erstellen, führte Greta Hilburn, Expertin für User-Centric Design an der US Defense Acquisition University, Umfragen unter einer Vielzahl von Nicht-Ingenieuren durch, um ein Gefühl für deren Erwartungen an humanoide Roboter zu bekommen. Die überwiegende Mehrheit der Befragten wünschte sich Roboter, die Gesichtsausdrücke haben, Mikroexpressionen lesen und zur Kommunikation Gesten, Sprache und Haptik einsetzen können. „Sie wollen also alles – etwas, das es noch nicht gibt“, sagt sie. Das richtige Design der Mensch-Roboter-Interaktion könnte entscheidend sein, wenn Humanoide aus industriellen Bereichen in andere Kontexte wie Krankenhäuser, Altenpflegeeinrichtungen oder Privathaushalte vordringen. Dies ist besonders wichtig für Roboter, die mit schutzbedürftigen Bevölkerungsgruppen kooperieren sollen, sagt Hilburn. Es könne großer Schaden entstehen, wenn ein Roboter falsch kommuniziert, insbesondere im Kontext mit Kindern oder älteren Menschen.

Die Empfehlungen der IEEE-Gruppe umfassen unter anderem Eingriffsmöglichkeiten für Benutzer, die Standardisierung einiger visueller und akustischer Signale und die Anpassung des Aussehens eines Roboters an seine Fähigkeiten, um die Benutzer nicht zu verwirren. Wenn ein Roboter menschlich aussieht, erwarten die Menschen inzwischen laut Prather, dass er in der Lage ist, eine Unterhaltung zu führen und eine gewisse emotionale Intelligenz zu zeigen. Wenn er hingegen nur grundlegende mechanische Aufgaben ausführen kann, könnte dies zu Frustration und Vertrauensverlust führen.

„Denken Sie an Selbstbedienungskassen“, sagt er. „Niemand erwartet, dass sie mit Ihnen plaudern oder Ihnen beim Einkaufen helfen, denn sie sind eindeutig Maschinen. Aber wenn sie wie freundliche Mitarbeiter aussehen und dann nur wiederholen: ‚Bitte scannen Sie den nächsten Artikel‘, würden sich die Leute ärgern.“

Prather und Hilburn betonen beide die Notwendigkeit der Inklusivität und Anpassungsfähigkeit, wenn es um die Interaktion zwischen Mensch und Roboter geht. Kann ein Roboter mit gehörlosen oder blinden Menschen kommunizieren? Kann er sich darauf einstellen, etwas länger zu warten, wenn Menschen mehr Zeit für eine Antwort benötigen? Versteht er verschiedene Akzente?

Möglicherweise müssen auch unterschiedliche Standards für Roboter festgelegt werden, die in unterschiedlichen Umgebungen eingesetzt werden, sagt Prather. Ein Roboter, der in einer Fabrik neben Menschen arbeitet, die für die Interaktion mit ihm geschult sind, ist eine Sache. Aber ein Roboter, der im Haushalt helfen oder mit Kindern in einem Freizeitpark interagieren soll, ist etwas anderes. Mit einigen allgemeinen Grundregeln sollte die Öffentlichkeit jedoch in der Lage sein, zu verstehen, was Roboter tun, wo immer sie ihnen begegnen. Es gehe nicht darum, Vorschriften zu machen oder Innovationen zu bremsen, sagt er, sondern darum, einige grundlegende Richtlinien festzulegen, damit Hersteller, Regulierungsbehörden und Endnutzer alle wissen, was sie zu erwarten haben: „Wir sagen, dass Mindestanforderungen erfüllt sein müssen – und wir sind uns alle einig, dass alles darunter schlecht ist.“

Der IEEE-Bericht soll eine Aufforderung zum Handeln für Normungsorganisationen wie Vicentinis ISO-Gruppe sein, um mit der Festlegung dieser Mindestanforderungen zu beginnen. So jung die Branche auch ist: Standards helfen Herstellern, Vertrauen in ihre Produkte aufzubauen und sie leichter auf internationalen Märkten zu verkaufen. Und Regulierungsbehörden stützen sich oft auf sie, wenn sie ihre eigenen Vorschriften erlassen. Angesichts der Vielfalt der Akteure in diesem Bereich wird es aber nicht einfach, Regeln zu schaffen, auf die sich alle einigen können, sagt Vicentini. „Wenn alle gleichermaßen unzufrieden sind, wäre das aber schon gut genug“.

Dieser Beitrag ist zuerst bei t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

Kassenärzte starten Informationskampagne für IT-Sicherheit in Arztpraxen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Kassenärztliche Bundesvereinigung (KBV) will für mehr IT-Sicherheit in Arztpraxen sorgen und geht daher Anfang Juli in die Informationsoffensive. Helfen sollen regelmäßige Informations- und Schulungsangebote zum Schutz vor Cyberkriminalität. Das Themenspektrum reicht laut KBV vom Umgang mit Phishing-Mails über „sichere Passwörter, Virenschutz, Software-Updates und das Nutzen einer Cloud bis hin zum Basisschutz der Praxis-IT oder was bei einem Sicherheitsvorfall zu tun ist“. Gerade mit Blick auf die Anbindung an die Telematikinfrastruktur (TI), die für den sicheren Austausch von Gesundheitsdaten gedacht ist, müssen Praxen für IT-Sicherheit sensibilisiert werden.


Broschürencover mit Router im Hintergrund und dem Text "IT-SICHERHEIT"

Broschürencover mit Router im Hintergrund und dem Text "IT-SICHERHEIT"

IT-Sicherheit wird bei der Kassenärztlichen Bundesvereinigung groß geschrieben.

(Bild: KBV)

Für mehr IT-Sicherheit hatte die KBV kürzlich ihre IT-Sicherheitsrichtlinie aktualisiert, die seitdem auch vorsieht, das Sicherheitsbewusstsein in Arztpraxen zu stärken. „Wir sind gesetzlich verpflichtet, Anforderungen zur Gewährleistung der IT-Sicherheit in Praxen in einer Richtlinie festzulegen und diese regelmäßig anzupassen“, sagte Steiner.

„Die Bedrohung der IT-Sicherheit wächst weltweit. Auch die ärztlichen und psychotherapeutischen Praxen sind davon betroffen und müssen ihre IT vor unberechtigten Zugriffen schützen“, sagte KBV-Vorstandsmitglied Dr. Sibylle Steiner. Das Heft „IT-Sicherheit“ (PDF) soll dabei einen kompakten Einstieg bieten, es gibt allerdings noch weitere Informationen und Musterdokumente – etwa ein Beispiel für eine Verschwiegenheitserklärung für Mitarbeiter und externe Dienstleister.

Auch der Deutsche Pflegerat (DPR) fordert „klare gesetzliche Vorgaben“ für die IT-Sicherheit in der Pflege. Er sieht aufgrund zunehmender Cyberangriffe und wachsender Digitalisierung ebenfalls dringenden Handlungsbedarf, um Pflegeeinrichtungen besser vor Angriffen zu schützen. „Auch außerhalb der KRITIS-Kategorien geraten Akteure des Gesundheitswesens, darunter Pflegeeinrichtungen, vermehrt ins Visier – etwa durch Ransomware, DDoS-Angriffe (Distributed Denial of Service) oder Social Engineering“, heißt es im Thesenpapier.

„Mit der geplanten Anbindung der Pflegeeinrichtungen an die Telematikinfrastruktur und somit einem höheren Grad der IT-Durchdringung ist es umso wichtiger branchenspezifische Sicherheitsstandards […] für die ‚Pflegerische Versorgung‘ zu definieren“. Zudem müssen die IT-Hersteller laut DPR zu zertifizierten Sicherheitsstandards verpflichtet werden. Mit der Umsetzung der EU-Richtlinie NIS2 und dem Cyber Resilience Act werde sich der Markt für IT-Lösungen neu strukturieren und bereinigen.

„Die Pflege braucht verbindliche und branchenspezifische IT-Sicherheitsstandards. Es darf nicht länger dem Zufall überlassen bleiben, wie gut Pflegeeinrichtungen gegen Cyberangriffe geschützt sind“, sagte Thomas Meißner, Leiter der DPR-Fachkommission „Digitalisierung in der Pflege“. Die Forderungen sollten nach Sicht des DPR gesetzlich im Gesundheitsdatennutzungsgesetz (GDNG) und im Digitale-Versorgung-und-Pflege-Modernisierungsgesetz (DVPMG) verankert werden.

Außerdem will die Pflege selbst definieren, was als Stand der Technik gilt. „Pflegeeinrichtungen brauchen praxistaugliche, sichere Produkte […]. Dies trägt zudem zur Marktbereinigung bei, da minderwertige oder unsichere Produkte auf Dauer ausgeschlossen werden“. Zumindest in Arztpraxen und Krankenhäusern gibt es regelmäßig Kritik über die fehlende Nutzerfreundlichkeit der Anwendungen. Bald muss auch die Pflege an die Telematikinfrastruktur angeschlossen sein, doch bisher sieht es nicht so aus, dass bis Anfang Juli die Anforderungen erfüllt sind.


(mack)



Source link

Weiterlesen

Beliebt