Künstliche Intelligenz
Gemini für Android unterstützt jetzt geplante Aktionen
Mit den Anfang Juni angekündigten „Geplanten Aktionen“ („Scheduled Tasks“) will Google Gemini mehr zu einem echten KI-Assistenten machen. Schon im Vorfeld der Google I/O 2025 sagte Josh Woodward, Vice President von Google Labs und Gemini, dass der KI-Assistent nicht nur persönlicher, sondern „proaktiv“ und „leistungsfähiger“ werden soll. Die neue Funktion soll ein Teil davon sein – jedoch zunächst nur für zahlende Kunden.
Gemini soll zum echten KI-Assistenten werden
Wie Google erklärt, können Bezahlkunden und -kundinnen Gemini nun auftragen, bestimmte Aufgaben zu festgelegten Zeiten auszuführen. Als Beispiele nennt Google etwa die Möglichkeit, morgens eine Zusammenfassung des Kalenders und eine Übersicht ungelesener Mails zu erstellen oder jeden Montag Ideen für Blogbeiträge zu generieren.
Ebenso sei es möglich, regelmäßige Updates über das Lieblingssportteam zu erhalten. Auch einmalige Aufgaben könne Gemini ausführen. Als Beispiel nennt Google etwa die Zusammenfassung einer Preisverleihung am Tag nach der Veranstaltung.
Lesen Sie auch
In der Gemini-App können Nutzer ihre geplanten Aktionen in den Einstellungen einsehen, pausieren oder löschen. Die Anzahl der Aktionen ist laut Google begrenzt: Nur zehn geplante Aktionen können gleichzeitig aktiv sein. Zudem können standortbezogene Aktionen nur an jenem Ort ausgeführt werden, an dem die Aktion erstellt wurde.
Derzeit steht die neue Funktion nur auf Android-Geräten zur Nutzung bereit, jedoch noch nicht auf iOS oder in der Weboberfläche. Wann das Feature weiter ausgerollt wird, ist noch unklar – dass es auf genannten Plattformen landen wird, deutet das Support-Dokument an, in dem sowohl Android als auch „Computer“, „iPhone und iPad“ aufgeführt werden.
„Routinen“ des Google Assistant auf Steroiden
Eine komplett neue Funktion sind die geplanten Aktionen nicht; schon der Google Assistant hatte ein ähnliches Feature mit dem Namen Routinen. Die neue Gemini-Funktion ist als Ersatz mit größerem Funktionsumfang gedacht.
Im Unterschied zur Funktion des Google Assistant sind die geplanten Aktionen jedoch nur für zahlende Nutzer verfügbar. Ob sie es bleibt, ist ungewiss. Denn Google hatte in den vergangenen Monaten immer wieder kostenpflichtige Gemini-Funktionen für alle Nutzer freigegeben.
Auch ChatGPT von OpenAI hat eine ähnliche Funktion, die es dem KI-Chatbot ermöglicht, Nutzern Erinnerungen zu senden oder wiederkehrende Aktionen durchzuführen. Jedoch ist dieses Feature auch nur Abonnenten vorbehalten.
(afl)
Künstliche Intelligenz
Warum humanoide Roboter ihre eigenen Sicherheitsregeln brauchen
Im vergangenen Jahr wurde erstmals ein humanoider Lagerroboter namens Digit für die Handhabung von Kartons bei der US-Firma Spanx eingesetzt. Digit kann Pakete mit einem Gewicht von bis zu 16 Kilogramm zwischen Rollwagen und Förderbändern heben und so seinen menschlichen Kollegen einige der schweren Aufgaben abnehmen. Er arbeitet in einem begrenzten, definierten Bereich, der durch Wände oder Lasersperren von den menschlichen Mitarbeitern getrennt ist.
Und das ist auch notwendig: Digit steht zwar normalerweise sicher auf seinen Roboterbeinen, es kommt aber auch vor, dass er stürzt. Dann funktioniert die charakteristische Rückwärtsbeugung seiner mechanischen Knie nicht. Auf einer Messe im März schien er beispielsweise über einen längeren Zeitraum geschickt Kartons zu transportieren. Dann brach der Humanoide plötzlich zusammen und landete auf dem Betonboden. Alles, was er gerade trug, fiel natürlich ebenfalls herunter.
Verletzungsgefahr durch humanoide Roboter
Das Risiko, dass solche Fehlfunktionen in der Nähe von Menschen auftreten, ist also durchaus vorhanden – und es kann gefährlich werden. Niemand möchte unter einer 1,80 Meter großen und 65 Kilogramm schweren Maschine begraben werden. Dass ein Roboterarm versehentlich auf eine empfindliche Körperstelle trifft, wäre ebenfalls sehr unangenehm. „Die Kehle ist ein gutes Beispiel“, sagt Pras Velagapudi, Chief Technology Officer von Agility Robotics, dem Hersteller von Digit. „Wenn ein Roboter die treffen würde, selbst mit dem Bruchteil der Kraft, die er zum Tragen einer 22 Kilogramm schweren Tragetasche benötigt, könnte er eine Person schwer verletzen.“
Physische Stabilität humanoider Roboter – also die Fähigkeit, nicht umzukippen – gehört dementsprechend zu den wichtigsten Sicherheitsanliegen eines Projekts, das neue Standards für humanoide Roboter erarbeitet. Die Humanoid Study Group der Ingenieursorganisation IEEE argumentiert, dass sich Humanoide in wesentlichen Punkten von anderen Automaten wie Industrierobotern oder bestehenden mobilen Robotiksystemen unterscheiden. Sie machen daher neue Standards notwendig, um die Sicherheit von Bedienpersonal, Endnutzern und der Öffentlichkeit zu gewährleisten.
Die Gruppe hat ihre Ergebnisse gegenüber der US-Ausgabe von MIT Technology Review erstmals öffentlich vorgestellt und plant, ihren vollständigen Bericht im Laufe des Sommers zu veröffentlichen. Darin werden verschiedene Herausforderungen identifiziert, darunter physische und psychosoziale Risiken sowie Fragen wie Datenschutz und Sicherheit, die den Experten zufolge von Normungsorganisationen angegangen werden müssen. Und zwar bevor Humanoide in mehr industriellen Szenarien eingesetzt werden, als das bisher geschieht.
Humanoide Roboter müssen „dynamisch stabil“ sein
Die Systeme machen derzeit erste vorsichtige Schritte in Richtung Produktiveinsatz. Ultimatives Ziel ist eine enge Zusammenarbeit mit Menschen. Ein Grund dafür, Roboter überhaupt menschenähnlich zu gestalten, ist, dass sie sich so leichter in den von uns geschaffenen Umgebungen zurechtfinden. Das bedeutet, dass sie in der Lage sein müssen, einen Raum mit Menschen zu teilen und nicht nur hinter Schutzbarrieren zu bleiben. Aber zuerst muss sichergestellt werden, dass sie keine Gefahr darstellen.
Ein charakteristisches Merkmal von Humanoiden ist, dass sie „dynamisch stabil“ sein müssen, sagt Aaron Prather, Direktor bei der Normungsorganisation ASTM International und Vorsitzender der IEEE-Expertengruppe. Das bedeutet, dass sie Energie benötigen, um aufrecht bleiben zu können. Sie üben Kraft über ihre Beine (oder andere Gliedmaßen) aus, um das Gleichgewicht zu halten. „In der traditionellen Robotik drückt man bei einem Problem den kleinen roten Knopf, die Stromversorgung wird unterbrochen und der Roboter bleibt stehen“, sagt Prather. „Bei einem Humanoiden geht das nicht wirklich.“ Wenn man das tut, fällt der Roboter wahrscheinlich um – was ein noch größeres Risiko darstellen kann, als ihn weiterlaufen zu lassen.
Aber wie könnte eine Sicherheitsfunktion aussehen, die keine Notbremsung ist? Agility Robotics führt in der neuesten Version von Digit einige neue Funktionen ein, um das Problem des Umkippens zu beheben. Anstatt sofort die Stromversorgung zu unterbrechen (und wahrscheinlich umzufallen), könnte der Humanoide beispielsweise sanft abbremsen, wenn eine Person zu nahe kommt. „Der Roboter muss eine bestimmte Zeit bekommen, um sich in einen sicheren Zustand zu versetzen“, sagt Velagapudi. Vielleicht legt er alles, was er gerade trägt, zuerst ab und geht auf Hände und Knie, bevor er sich ausschaltet.
Verschiedene Roboter könnten das Problem auf unterschiedliche Weise lösen. „Wir wollen nur das Ziel standardisieren, nicht den Weg dorthin“, sagt Federico Vicentini, Leiter der Produktsicherheit bei Boston Dynamics. Vicentini leitet eine Arbeitsgruppe der Internationalen Organisation für Normung (ISO), die ebenfalls einen neuen Standard für die Sicherheit von Industrierobotern entwickelt, die zur Aufrechterhaltung ihrer Stabilität aktiv gesteuert werden müssen (auch Experten von Agility Robotics sind beteiligt). Die Idee ist, klare Sicherheitsanforderungen festzulegen, ohne die Innovationsfreiheit der Roboter- und Komponentenhersteller einzuschränken: „Wie das Problem gelöst wird, bleibt dem Konstrukteur überlassen.“ Der Versuch, universelle Standards festzulegen und gleichzeitig die Gestaltungsfreiheit zu wahren, kann jedoch Herausforderungen mit sich bringen. Zunächst einmal: Wie definiert man überhaupt einen humanoiden Roboter? Muss er Beine haben? Arme? Einen Kopf?
„Eine unserer Empfehlungen lautet, den Begriff ‚Humanoid‘ vielleicht ganz fallen zu lassen“, sagt Prather. Seine Gruppe befürwortet ein Klassifizierungssystem für humanoide Roboter, das deren Fähigkeiten, Verhalten und Verwendungszweck berücksichtigt und nicht ihr Aussehen. Die ISO-Norm, an der Vicentini arbeitet, bezieht sich auf alle industriellen mobilen Roboter „mit aktiv gesteuerter Stabilität“. Dies würde sowohl für den vierbeinigen Spot von Boston Dynamics gelten als auch für den zweibeinigen humanoiden Atlas und könnte ebenso Roboter mit Rädern oder einer anderen Art von Mobilitätskomponente umfassen.
Wie spricht man mit einem Roboter?
Abgesehen von Fragen der physischen Sicherheit, stellen Humanoide auch eine Herausforderung für die Kommunikation dar. Wenn sie sich den Raum mit Menschen teilen sollen, müssen sie erkennen, wenn jemand ihren Weg kreuzt. Sie müssen ihre eigenen Absichten so kommunizieren, dass jeder verstehen kann, was sie gerade tun. Das ist ähnlich wie beim Auto mit Bremslicht und Blinker. Digit verfügt bereits über Lichter, die seinen Status und seine Fahrtrichtung anzeigen, sagt Velagapudi, aber es brauche noch bessere Anzeigen, wenn er kooperativ und letztlich kollaborativ mit Menschen zusammenarbeiten soll. „Wenn Digit vor Ihnen in einen Gang hineinläuft, möchten Sie davon nicht überrascht werden“, sagt er. Der Roboter könnte Sprachausgaben nutzen, aber Audio allein ist in einer lauten Industrieumgebung nicht praktikabel. Noch verwirrender könnte es werden, wenn sich mehrere Roboter im selben Raum befinden – welcher versucht gerade, unsere Aufmerksamkeit zu erregen?
Es gibt auch einen psychologischen Effekt, der Humanoide von anderen Robotertypen unterscheidet, sagt Prather. Wir vermenschlichen Roboter, die wie wir aussehen. Das ist ganz natürlich, was dazu führen kann, dass wir ihre Fähigkeiten überschätzen und frustriert sind, wenn sie diese Erwartungen nicht erfüllen. „Manchmal lassen wir in puncto Sicherheit nach oder die Erwartungen an das, was der Roboter leisten kann, sind im Vergleich zur Realität zu hoch“, sagt er. Diese Probleme sind besonders gravierend, wenn Roboter Aufgaben übernehmen sollen, die normalerweise menschliche Emotionen oder die Unterstützung schutzbedürftiger Menschen erfordern. Der IEEE-Bericht empfiehlt, dass die Standards Bewertungsmaßstäbe für die „emotionale Sicherheit“ und Richtlinien zur „Minderung von psychischem Stress oder Entfremdung“ enthalten sollten.
Um den Bericht zu erstellen, führte Greta Hilburn, Expertin für User-Centric Design an der US Defense Acquisition University, Umfragen unter einer Vielzahl von Nicht-Ingenieuren durch, um ein Gefühl für deren Erwartungen an humanoide Roboter zu bekommen. Die überwiegende Mehrheit der Befragten wünschte sich Roboter, die Gesichtsausdrücke haben, Mikroexpressionen lesen und zur Kommunikation Gesten, Sprache und Haptik einsetzen können. „Sie wollen also alles – etwas, das es noch nicht gibt“, sagt sie. Das richtige Design der Mensch-Roboter-Interaktion könnte entscheidend sein, wenn Humanoide aus industriellen Bereichen in andere Kontexte wie Krankenhäuser, Altenpflegeeinrichtungen oder Privathaushalte vordringen. Dies ist besonders wichtig für Roboter, die mit schutzbedürftigen Bevölkerungsgruppen kooperieren sollen, sagt Hilburn. Es könne großer Schaden entstehen, wenn ein Roboter falsch kommuniziert, insbesondere im Kontext mit Kindern oder älteren Menschen.
Die Empfehlungen der IEEE-Gruppe umfassen unter anderem Eingriffsmöglichkeiten für Benutzer, die Standardisierung einiger visueller und akustischer Signale und die Anpassung des Aussehens eines Roboters an seine Fähigkeiten, um die Benutzer nicht zu verwirren. Wenn ein Roboter menschlich aussieht, erwarten die Menschen inzwischen laut Prather, dass er in der Lage ist, eine Unterhaltung zu führen und eine gewisse emotionale Intelligenz zu zeigen. Wenn er hingegen nur grundlegende mechanische Aufgaben ausführen kann, könnte dies zu Frustration und Vertrauensverlust führen.
Ein Roboter ist keine Selbstbedienungskasse
„Denken Sie an Selbstbedienungskassen“, sagt er. „Niemand erwartet, dass sie mit Ihnen plaudern oder Ihnen beim Einkaufen helfen, denn sie sind eindeutig Maschinen. Aber wenn sie wie freundliche Mitarbeiter aussehen und dann nur wiederholen: ‚Bitte scannen Sie den nächsten Artikel‘, würden sich die Leute ärgern.“
Prather und Hilburn betonen beide die Notwendigkeit der Inklusivität und Anpassungsfähigkeit, wenn es um die Interaktion zwischen Mensch und Roboter geht. Kann ein Roboter mit gehörlosen oder blinden Menschen kommunizieren? Kann er sich darauf einstellen, etwas länger zu warten, wenn Menschen mehr Zeit für eine Antwort benötigen? Versteht er verschiedene Akzente?
Möglicherweise müssen auch unterschiedliche Standards für Roboter festgelegt werden, die in unterschiedlichen Umgebungen eingesetzt werden, sagt Prather. Ein Roboter, der in einer Fabrik neben Menschen arbeitet, die für die Interaktion mit ihm geschult sind, ist eine Sache. Aber ein Roboter, der im Haushalt helfen oder mit Kindern in einem Freizeitpark interagieren soll, ist etwas anderes. Mit einigen allgemeinen Grundregeln sollte die Öffentlichkeit jedoch in der Lage sein, zu verstehen, was Roboter tun, wo immer sie ihnen begegnen. Es gehe nicht darum, Vorschriften zu machen oder Innovationen zu bremsen, sagt er, sondern darum, einige grundlegende Richtlinien festzulegen, damit Hersteller, Regulierungsbehörden und Endnutzer alle wissen, was sie zu erwarten haben: „Wir sagen, dass Mindestanforderungen erfüllt sein müssen – und wir sind uns alle einig, dass alles darunter schlecht ist.“
Der IEEE-Bericht soll eine Aufforderung zum Handeln für Normungsorganisationen wie Vicentinis ISO-Gruppe sein, um mit der Festlegung dieser Mindestanforderungen zu beginnen. So jung die Branche auch ist: Standards helfen Herstellern, Vertrauen in ihre Produkte aufzubauen und sie leichter auf internationalen Märkten zu verkaufen. Und Regulierungsbehörden stützen sich oft auf sie, wenn sie ihre eigenen Vorschriften erlassen. Angesichts der Vielfalt der Akteure in diesem Bereich wird es aber nicht einfach, Regeln zu schaffen, auf die sich alle einigen können, sagt Vicentini. „Wenn alle gleichermaßen unzufrieden sind, wäre das aber schon gut genug“.
Dieser Beitrag ist zuerst bei t3n.de erschienen.
(jle)
Künstliche Intelligenz
Kassenärzte starten Informationskampagne für IT-Sicherheit in Arztpraxen
Die Kassenärztliche Bundesvereinigung (KBV) will für mehr IT-Sicherheit in Arztpraxen sorgen und geht daher Anfang Juli in die Informationsoffensive. Helfen sollen regelmäßige Informations- und Schulungsangebote zum Schutz vor Cyberkriminalität. Das Themenspektrum reicht laut KBV vom Umgang mit Phishing-Mails über „sichere Passwörter, Virenschutz, Software-Updates und das Nutzen einer Cloud bis hin zum Basisschutz der Praxis-IT oder was bei einem Sicherheitsvorfall zu tun ist“. Gerade mit Blick auf die Anbindung an die Telematikinfrastruktur (TI), die für den sicheren Austausch von Gesundheitsdaten gedacht ist, müssen Praxen für IT-Sicherheit sensibilisiert werden.
Mehr Schulungen für Cybersicherheit
IT-Sicherheit wird bei der Kassenärztlichen Bundesvereinigung groß geschrieben.
(Bild: KBV)
Für mehr IT-Sicherheit hatte die KBV kürzlich ihre IT-Sicherheitsrichtlinie aktualisiert, die seitdem auch vorsieht, das Sicherheitsbewusstsein in Arztpraxen zu stärken. „Wir sind gesetzlich verpflichtet, Anforderungen zur Gewährleistung der IT-Sicherheit in Praxen in einer Richtlinie festzulegen und diese regelmäßig anzupassen“, sagte Steiner.
„Die Bedrohung der IT-Sicherheit wächst weltweit. Auch die ärztlichen und psychotherapeutischen Praxen sind davon betroffen und müssen ihre IT vor unberechtigten Zugriffen schützen“, sagte KBV-Vorstandsmitglied Dr. Sibylle Steiner. Das Heft „IT-Sicherheit“ (PDF) soll dabei einen kompakten Einstieg bieten, es gibt allerdings noch weitere Informationen und Musterdokumente – etwa ein Beispiel für eine Verschwiegenheitserklärung für Mitarbeiter und externe Dienstleister.
Pflege fordert IT-Sicherheit und nutzerfreundliche TI-Produkte
Auch der Deutsche Pflegerat (DPR) fordert „klare gesetzliche Vorgaben“ für die IT-Sicherheit in der Pflege. Er sieht aufgrund zunehmender Cyberangriffe und wachsender Digitalisierung ebenfalls dringenden Handlungsbedarf, um Pflegeeinrichtungen besser vor Angriffen zu schützen. „Auch außerhalb der KRITIS-Kategorien geraten Akteure des Gesundheitswesens, darunter Pflegeeinrichtungen, vermehrt ins Visier – etwa durch Ransomware, DDoS-Angriffe (Distributed Denial of Service) oder Social Engineering“, heißt es im Thesenpapier.
„Mit der geplanten Anbindung der Pflegeeinrichtungen an die Telematikinfrastruktur und somit einem höheren Grad der IT-Durchdringung ist es umso wichtiger branchenspezifische Sicherheitsstandards […] für die ‚Pflegerische Versorgung‘ zu definieren“. Zudem müssen die IT-Hersteller laut DPR zu zertifizierten Sicherheitsstandards verpflichtet werden. Mit der Umsetzung der EU-Richtlinie NIS2 und dem Cyber Resilience Act werde sich der Markt für IT-Lösungen neu strukturieren und bereinigen.
IT-Sicherheit nicht dem Zufall überlassen
„Die Pflege braucht verbindliche und branchenspezifische IT-Sicherheitsstandards. Es darf nicht länger dem Zufall überlassen bleiben, wie gut Pflegeeinrichtungen gegen Cyberangriffe geschützt sind“, sagte Thomas Meißner, Leiter der DPR-Fachkommission „Digitalisierung in der Pflege“. Die Forderungen sollten nach Sicht des DPR gesetzlich im Gesundheitsdatennutzungsgesetz (GDNG) und im Digitale-Versorgung-und-Pflege-Modernisierungsgesetz (DVPMG) verankert werden.
Außerdem will die Pflege selbst definieren, was als Stand der Technik gilt. „Pflegeeinrichtungen brauchen praxistaugliche, sichere Produkte […]. Dies trägt zudem zur Marktbereinigung bei, da minderwertige oder unsichere Produkte auf Dauer ausgeschlossen werden“. Zumindest in Arztpraxen und Krankenhäusern gibt es regelmäßig Kritik über die fehlende Nutzerfreundlichkeit der Anwendungen. Bald muss auch die Pflege an die Telematikinfrastruktur angeschlossen sein, doch bisher sieht es nicht so aus, dass bis Anfang Juli die Anforderungen erfüllt sind.
(mack)
Künstliche Intelligenz
Österreich verbietet Dickpics | heise online
Das unaufgeforderte Zusenden von Fotos oder Videos entblößter Geschlechtsteile einer erwachsenen Person an eine andere ist in Österreich derzeit nicht gerichtlich strafbar. Um das zu ändern, legt die Regierung dem Parlament einen Vorschlag für eine Strafrechtsnovelle vor. Damit soll auch sogenanntes Cyberflashing verboten werden.
Laut vorgeschlagenem Paragraphen 218 Absatz 1b Strafgesetzbuch (StGB) soll strafbar sein, „wer eine andere Person belästigt, indem er ihr im Wege einer Telekommunikation oder unter Verwendung eines Computersystems eine Bildaufnahme, die wesentlich menschliche Genitalien zeigt, vergleichbare bearbeitete Bildaufnahmen oder vergleichbares künstlich erstelltes Material, unaufgefordert und absichtlich übermittelt.“ Klingt einfach und ist im Detail erstaunlich komplex.
Diffizile Abgrenzung
Comics oder Zeichnungen erfüllen das Erfordernis nicht, weil sie echten Bildern nicht „vergleichbar“ sind. Die Formulierung „oder unter Verwendung eines Computersystems“ erfasst Cyberflashing. Dabei werden Abbildungen des Gemächts nicht über klassische Telekommunikation, sondern über Nahfunk, beispielsweise Apples Airdrop oder Bluetooth, unverhofft zugemittelt. Erfasst werden zudem Online-Postings, die Platzierung auf Webseiten oder Internetplattformen aller Art sowie Verbreitung über Soziale Netze. Dabei soll laut Erläuterungen jedoch nicht strafbar sein, wer Aufnahmen „in der eigenen digitalen Sphäre (zB in das eigene Profil)“ hochlädt oder platziert.
Nicht kriminalisieren möchte die Regierung Fälle, in denen von Einverständnis der Beteiligten auszugehen ist: „Dies kann beispielsweise in Beziehungen der Fall sein oder auch bei Teilnahme an Angeboten im Internet, in sozialen Medien oder Apps, die auf den (zulässigen) Empfang oder Austausch von sexuellen Inhalten ausgerichtet sind (zB Erotikplattformen). Die bloße Präsenz oder Teilnahme auf Kontakt-Portalen zur Partnersuche oder in sogenannten ‚Dating-Apps‘ genügt dabei freilich nicht.“
Zudem muss die Belästigung im Zeitpunkt des Empfangs eintreten. Wer sich später, etwa nach einem Beziehungsende, ekelt, hat keine rechtliche Handhabe. Die neuen Tatbestände sind sogenannte Ermächtigungsdelikte. Das bedeutet, dass die Tat nur mit Zustimmung der verletzten Person gerichtlich verfolgt werden kann. Vorgesehen sind dann Freiheitsstrafen bis zu sechs Monaten oder Geldstrafen bis zu 360 Tagessätzen, sofern kein anderer, schwerwiegenderer Tatbestand erfüllt ist.
Übererfüllung einer EU-Richtlinie
Die Novelle setzt die 2004 beschlossene EU-Richtlinie 2024/1385 zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt um. Diese Richtlinie erlegt in Artikel 7 Absatz c den Mitgliedsstaaten auf, „unaufgeforderte, mittels IKT erfolgende Zusendung eines Bildes, eines Videos oder sonstigen vergleichbaren Materials, auf dem Genitalien abgebildet sind, an eine Person, sofern diese Handlungen wahrscheinlich dazu führen, dass der Person schwerer psychischer Schaden zugefügt wird“, spätestens 2027 unter Strafe zu stellen. Die österreichische Novelle geht über die EU-Vorgabe hinaus.
Denn für Strafbarkeit in Österreich soll Belästigung reichen, selbst wenn keine Wahrscheinlichkeit schweren psychischen Schadens besteht. Die Übererfüllung von EU-Vorgaben ist auch als Goldplating bekannt. Genau das sollte in Österreich nicht mehr vorkommen, wie Bundeskanzler Christian Stocker und seine Partei, die ÖVP, versprochen haben. Die Erläuterung der Regierungsvorlage begründet das Goldplating so: „Einerseits scheint die Anknüpfung an den Aspekt der Belästigung (…) sachgerechter; andererseits würde das Kriterium der Wahrscheinlichkeit eines schweren psychischen Schadens Ermittlungs- und Beweisverfahren voraussichtlich verlängern und verkomplizieren (…)“, und es gäbe dann weniger Verurteilungen.
Die österreichische Regierung erwartet, dass es in Zukunft zirka 300 einschlägige Verfahren pro Jahr bei den Staatsanwaltschaften sowie ungefähr 45 Gerichtsverfahren jährlich geben wird. Entsprechend dürfte die Kriminalitätsrate geringfügig steigen. Die Regierungskoalition dürfte die kleine Strafrechtsnovelle ohne Federlesen verabschieden.
(ds)
-
Online Marketing & SEOvor 1 Woche
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
Digital Business & Startupsvor 7 Tagen
Von Peter Thiel finanziertes Krypto-Startup Bullish will an die Börse
-
Social Mediavor 5 Tagen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
UX/UI & Webdesignvor 6 Tagen
Wie gelingt eine einwandfreie Zusammenarbeit?
-
UX/UI & Webdesignvor 7 Tagen
Kunst & KI begleitet die Münchner Standort-Eröffnung › PAGE online
-
Künstliche Intelligenzvor 1 Woche
Amazon soll Werbung bei Prime Video verdoppelt haben
-
Online Marketing & SEOvor 7 Tagen
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen
-
Künstliche Intelligenzvor 1 Woche
Telemedizin: Patientenversorgung braucht einfach zugängliche Kommunikationswege