Connect with us

Künstliche Intelligenz

KI in der Psychotherapie: Nutzung steigt, Sorgen wachsen


Künstliche Intelligenz ist auch im therapeutischen Alltag angekommen. Je vertrauter die Psychologen jedoch mit KI werden, desto mehr werden sie sich der potenziellen Risiken bewusst. Neun von zehn Psychologen äußerten Bedenken gegenüber dem Einsatz von KI. Das hat die jährliche Umfrage der American Psychological Association (APA) ergeben (Practitioner Pulse Survey), für die im September 2025 über 1.700 Psychologen befragt wurden.

Weiterlesen nach der Anzeige

Demnach haben im vergangenen Jahr 56 Prozent der Psychologen KI-Werkzeuge zur Unterstützung ihrer Arbeit genutzt – ein deutlicher Anstieg gegenüber den 29 Prozent im Jahr 2024. Fast jeder dritte Psychologe (29 Prozent) setzt die Technologie sogar monatlich ein.

Laut der Studie konzentriert sich die Akzeptanz fast ausschließlich auf administrative und unterstützende Tätigkeiten. Anstatt die Kernaufgaben der Therapie zu übernehmen, dient die Technologie den Befragten zufolge vor allem dazu, den Arbeitsalltag effizienter zu gestalten. Die häufigsten Anwendungsfälle sind die Unterstützung beim Verfassen von E-Mails und ähnlichem (etwa 52 Prozent), das Zusammenfassen von klinischen Notizen oder Fachartikeln (32 Prozent), die Erstellung von Inhalten (33 Prozent) und Unterstützung beim Protokollieren (22 Prozent).

Nur eine kleine Minderheit der KI-nutzenden Psychologen setzt die Technologie für sensible klinische Aufgaben wie die diagnostische Unterstützung (8 Prozent) oder als Chatbot-Assistenz für Patienten (5 Prozent) ein.

Rund 92 Prozent der befragten Psychologen äußerten Bedenken. Ganz oben auf der Liste steht die Sorge vor Datenschutzverletzungen (67 Prozent, im Vorjahr 59 Prozent). Ebenfalls zugenommen haben auch alle weiteren Bedenken, beispielsweise die vor unvorhersehbaren gesellschaftlichen Schäden (64 Prozent, im Vorjahr 54 Prozent) und Verzerrungen (Bias) in den Algorithmen (63 Prozent). Auch die Sorge vor ungenauen Ausgaben, sogenannten „Halluzinationen“, ist von 44 Prozent im Vorjahr auf 60 Prozent gestiegen.

Ähnliches bestätigt ein Bericht der in Berlin gegründeten Therapeuten-Plattform „It’s Complicated“. In deren Umfrage gab ebenfalls rund die Hälfte der Therapeuten (51,2 Prozent) an, mit KI zu experimentieren, hauptsächlich für die Erstellung von Inhalten und die Zusammenfassung von Forschung. Ihre Hauptsorgen ähneln denen der durch die APA Befragten, wobei an erster Stelle Bedenken wegen der Genauigkeit der KI-Werkzeuge stehen (rund 71 Prozent), gefolgt von der Gefahr, dass die Verbindung mit dem Klienten in der Therapie verloren geht. Rund 60 Prozent befürchten Datenschutzverletzungen. Ein Therapeut äußert die Sorge, dass KI-Modelle wie ChatGPT, Claude oder Gemini darauf ausgelegt sind, die Aufmerksamkeit der Nutzer um jeden Preis zu gewinnen und zu halten. Er merkt an, dass sie unvorhersehbar agieren und von einer kleinen Gruppe von Akteuren kontrolliert werden, die kaum reguliert sind oder Verantwortung übernehmen.

Weiterlesen nach der Anzeige

Ebenfalls erfragte die Plattform die Perspektive der Patienten. Demnach nutzen bereits über die Hälfte der Befragten (52,4 Prozent) KI für ihre psychische Gesundheit, meist in Form allgemeiner Chatbots wie ChatGPT. Gründe dafür sind beispielsweise das Vorbereiten auf Sitzungen, um Gedanken zu sortieren oder schwierige Gefühle auszudrücken. Dass Menschen ChatGPT als Therapeuten nutzen, liegt vor allem an der besonderen Wirkung der KI als „Resonanzmaschine“. Psychologen wie Michal Kosinski weisen darauf hin, dass moderne Sprachmodelle durch die Analyse von Textmustern eine Art „Theory of Mind“ entwickeln – die Fähigkeit, menschliche Emotionen, Motivationen und Absichten zu erkennen und zu spiegeln. Die KI „fühlt“ zwar nicht, aber sie kann mit erstaunlicher Präzision berechnen, was Menschen in bestimmten Situationen fühlen oder denken könnten, was ihre Wirkung als Gesprächspartner verstärkt.

Gleichzeitig teilen die Klienten die Bedenken der Experten. Ihre größten Sorgen sind fehlerhafter Rat (82,4 Prozent) und der Datenschutz (73 Prozent). Sie wollen laut Befragung, dass KI die Therapie ergänzt und nicht ersetzt. Besonders gefragt sind Werkzeuge, die zwischen den Sitzungen unterstützen, etwa indem sie zum Tagebuchschreiben anregt oder bei der Suche nach dem passenden Therapeuten helfen.

Die Autoren des Berichts leiten daraus Empfehlungen ab, wie beispielsweise, dass der Mensch die Entscheidungen verantwortet. Diese Ansicht vertritt auch ein Großteil der Ärzteschaft, wobei regelmäßig darüber diskutiert wird, ob sich mit zunehmendem Einsatz von KI nicht auch Automatismen einschleichen, in diesem Zusammenhang war in der Vergangenheit auch von Computerpaternalismus die Rede.

Darüber hinaus halten die Autoren die informierte Einwilligung für ein wichtiges Instrument. Gleichzeitig schlägt die Politik eine andere Richtung ein, etwa mit der Widerspruchslösung bei der elektronischen Patientenakte. Weitere Gesetzesvorstöße, beispielsweise das geplante Medizinregistergesetz, verfestigen das Vorhaben, weitere Datensätze künftig in der Regel – nicht zum Beispiel Gen- und Wellnessdaten – automatisiert an das Forschungsdatenzentrum Gesundheit zu übermitteln.

Ebenso halten die Gründer von „It’s Complicated“ Transparenz darüber für wichtig, welche Daten wie und warum genutzt werden. Dass Versicherte nicht wissen, was mit ihren Daten geschieht, die beim Forschungsdatenzentrum Gesundheit zur Verfügung stehen sollen, wird ebenfalls regelmäßig kritisiert. Als letzten wichtigen Punkt wird im Bericht zudem die Relevanz von Privatsphäre und Datensicherheit genannt.


(mack)



Source link

Künstliche Intelligenz

Britisches Oberhaus will Altersverifikation für VPNs und Social Media


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das britische Oberhaus hat für eine deutliche Verschärfung der Altersverifikation im Internet gestimmt. Mit 207 zu 159 Stimmen nahmen die Lords das Amendment 92 an, das VPN-Anbieter verpflichtet, wirksame Alterskontrollen für britische Nutzer einzuführen. Damit wird erstmals eine Altersgrenze für VPN-Dienste festgelegt. Ein weiterer Änderungsantrag verbietet unter 16-Jährigen den Zugang zu sozialen Medien.

Weiterlesen nach der Anzeige

Die VPN-Dienste sind in Großbritannien in den Fokus gerückt, da sie dazu verwendet wurden, andere Altersgrenzen im Netz, wie etwa für Pornografie-Seiten, auszuhebeln. Amendment 92 zielt darauf ab, die Umgehung des Online Safety Act zu verhindern. Der Gesetzgeber befürchtet, dass Minderjährige mit VPN-Diensten Altersbeschränkungen auf Social-Media-Plattformen aushebeln könnten. Nach der neuen Regelung muss das zuständige Ministerium innerhalb von zwölf Monaten nach Inkrafttreten Vorschriften erlassen, die VPN-Anbietern die Bereitstellung ihrer Dienste an Kinder verbieten. Betroffen sind kommerzielle VPN-Dienste, die in Großbritannien angeboten oder an eine signifikante Anzahl britischer Nutzer vermarktet werden.

Die Regulierungsbehörde Ofcom soll Leitlinien für die Umsetzung entwickeln und die Einhaltung überwachen. Als Kind gilt laut Amendment jede Person unter 18 Jahren. Die geforderte „highly effective age assurance“ könnte Methoden wie den Upload eines Fotos eines Ausweisdokuments, Gesichtserkennung oder Banküberprüfungen umfassen.

Mit noch deutlicherer Mehrheit von 261 zu 150 Stimmen verabschiedeten die Lords Amendment 94a. Dieser Änderungsantrag verbietet Jugendlichen unter 16 Jahren den Zugang zu „user-to-user services“. Darunter fallen laut Online Safety Act soziale Netzwerke, Messaging-Apps, Foren und Online-Gaming-Plattformen – also Dienste, auf denen Nutzer Inhalte posten, teilen und miteinander interagieren können. Ausgenommen sind E-Mail, SMS, MMS und einzelne Sprachanrufe.

Zwei weitere Amendments hatten keinen Erfolg: Lord Nash zog Amendment 93 zurück, das manipulationssichere Software auf Smartphones und Tablets gegen Darstellungen sexuellen Kindesmissbrauchs gefordert hätte. Er verwies auf laufende Gespräche mit Ministern. Amendment 108 von Lord Storey, das Plattformen erlaubt hätte, eigene Mindestaltersgrenzen festzulegen, wurde abgelehnt.

Weiterlesen nach der Anzeige

Die geplanten Regelungen werfen erhebliche Datenschutzfragen auf. VPN-Dienste müssten Nutzer identifizieren und deren Alter überprüfen – genau das Gegenteil dessen, wofür sie entwickelt wurden. Anbieter aus dem Ausland müssten britische Nutzer gesondert behandeln und separate Verifikationssysteme aufbauen, was zu höheren Kosten und potenziellem Nutzerverlust führen könnte. Nach Inkrafttreten des Online Safety Act 2023 stieg die Nachfrage nach VPN-Diensten in Großbritannien bereits massiv an: ProtonVPN meldete einen Anstieg um 1400 Prozent.

Ofcom spielt als Regulierungsbehörde eine zentrale Rolle bei der Umsetzung des Online Safety Act. Die Behörde erstellt Verhaltenskodizes, überwacht deren Einhaltung und kann bei Verstößen Bußgelder von bis zu zehn Prozent des globalen Jahresumsatzes verhängen oder Dienste blockieren lassen. Für VPN-Provider soll Ofcom nun Leitlinien entwickeln, wie die geforderte Altersverifikation technisch umgesetzt werden kann.

International steht Großbritannien mit solchen Plänen nicht allein da. Frankreich diskutiert derzeit ein Verbot sozialer Netzwerke für unter 15-Jährige. Australien hat ein Social-Media-Verbot für unter 16-Jährige eingeführt, in dessen Folge mehr als 4,7 Millionen Accounts deaktiviert wurden. Auch Spanien und Griechenland erwägen ähnliche Regelungen mit 16 Jahren als Altersgrenze.

Nach der dritten Lesung im Oberhaus müssen beide Amendments noch das Unterhaus passieren. Dort verfügt die Labour-Regierung über eine Mehrheit und hat bereits angekündigt, die Vorschläge möglicherweise stoppen zu wollen. Die Regierung hat eine Konsultation zu Mindestaltern bei Social Media und VPNs versprochen, möchte aber offenbar nicht vom Parlament zu schnellen Entscheidungen gedrängt werden. Wann und ob die Regelungen tatsächlich in Kraft treten, ist daher noch offen.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Google zahlt 68 Millionen US-Dollar zur Beilegung einer Datenschutzklage


Der US-Konzern Google hat sich bereit erklärt, 68 Millionen US-Dollar zu zahlen, um eine Sammelklage beizulegen, in der behauptet wurde, dass sein sprachgesteuertes Assistenzprogramm Smartphone-User ohne deren Zustimmung oder Wissen aufgezeichnet und damit ihre Privatsphäre verletzt habe.

Weiterlesen nach der Anzeige

Die vorläufige Einigung in dem Fall wurde am Freitagabend vor einem Bundesgericht in San José im US-Bundesstaat Kalifornien erzielt. Sie muss noch von der zuständigen US-Bezirksrichterin Beth Labson Freeman genehmigt werden, berichtet die Nachrichtenagentur Reuters.

Die Kläger warfen Google vor, nach dem Aktivieren von Google Assistant private Gespräche illegal aufgezeichnet und verbreitet zu haben, um ihnen gezielte Werbung zu senden. Ähnlich wie Apples Sprachassistent Siri ist der Google Assistant so konzipiert, dass er Gespräche aufzeichnet, wenn Personen die Schlüsselwörter „Hey Google“ oder „Okay Google“ verwenden. In der Sammelklage gegen Google vom Juli 2019 wird behauptet, dass Google Assistant Gespräche auch dann aufzeichnete, wenn User nicht diese Schlüsselwörter sagten oder eine Taste zum Start der Aufzeichnung drückten. Die Aufzeichnungen seien von Google zu Schulungszwecken aufbewahrt worden, selbst dann, wenn das Unternehmen feststellte, dass kein Schlüsselwort gesagt worden war.

Google räumte in der Einigung kein Fehlverhalten ein. Die Übereinkunft helfe, „erhebliche Risiken, Kosten und Verzögerungen im Zusammenhang mit dem Prozess und der Berufung zu vermeiden und die Entschädigung für die Sammelkläger zu gewährleisten“, heißt es in den Gerichtsunterlagen. Die Einigung gilt für Nutzer, die seit dem 18. Mai 2016 einen Google Assistant gekauft oder genutzt haben.

Apple beendete Anfang vergangenen Jahres eine ähnliche Sammelklage im Zusammenhang mit unerwünschter Aufzeichnung von Siri-Inhalten gegen die Zahlung einer Geldauflage. Ein US-Bundesgericht in Oakland, Kalifornien, genehmigte die außergerichtliche Einigung mit einer Auszahlsumme von insgesamt 95 Millionen US-Dollar.


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

Apple AirTag 2 ist da: Besseres Finden, lauteres Piepsen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Nach knapp fünf Jahren hat Apple am Montag neue AirTags angekündigt. Die äußerlich offensichtlich unveränderte zweite Generation der Bluetooth-Tracker integriert leistungsfähigere Funkchips und sorgt für lauteres Piepsen. Mit einem neueren iPhone (ab iPhone 15, iPhone Air und iOS 26.2.1) lässt sich ein AirTag 2 demnach schon aus etwas weiterer Entfernung über die „Genaue Suche“ per Ultrabreitbandfunk in der eigenen Umgebung aufstöbern. Erstmals ist es außerdem möglich, einen AirTag auch im Nahbereich direkt von der Apple Watch (ab Series 9, Ultra 2 und watchOS 26.2.1) aus zu lokalisieren.

Weiterlesen nach der Anzeige

Der lautere Speaker der AirTags 2 helfe dabei, einen Tracker leichter zu finden, wenn dieser etwa zwischen die Couch-Polster gerutscht sei, heißt es bei Apple. Ein aktualisierter Bluetooth-Chip soll obendrein für eine höhere Reichweite sorgen, sodass theoretisch auch fremde iPhones in größerer Entfernung einen verlorenen AirTag bemerken und den Standort an Apples Server respektive den Besitzer übermitteln.

In Hinblick auf Anti-Stalking-Funktionen hat Apple keine Neuerungen angekündigt, hier könnte das lautere Piepsen möglicherweise auch helfen. Ob sich der Lautsprecher der AirTags 2 ebenso einfach deaktivieren lässt wie der Lautsprecher der ersten AirTag-Generation, bleibt vorerst offen. Apple vermarktet die Tracker nicht als Anti-Diebstahl-Tool, weil die Stalking-Warnfunktionen schließlich auch Diebe auf das Gerät aufmerksam machen können.

Der Hersteller rückt das Auffinden verlorener Gegenstände in den Vordergrund. Die Zusammenarbeit mit Fluglinien führte demnach dazu, dass sich Vorfälle von komplett verlorenem Reisegepäck um 90 Prozent reduziert haben. Nutzer können den Standort ihrer AirTags temporär mit Dritten teilen – viele Airlines haben das inzwischen in ihre Systeme integriert.

Die münzgroßen AirTags 2 passten in bestehendes Zubehör, wie Apple anmerkt. Das ist für viele Einsatzgebiete allerdings auch weiterhin zwingend erforderlich, schließlich verzichten sie unverändert auf eine Öse oder andere Aufhängevorrichtung. Für Strom sorgt weiterhin eine austauschbare Knopfzelle CR2032, die wie bisher länger als ein Jahr durchhalten soll.

Weiterlesen nach der Anzeige

Preislich tut sich nichts: Ein einzelner AirTag 2 kostet bei Apple 35 Euro, der Viererpack knapp 120 Euro. Im Handel war das Bundle meist weit unter 100 Euro zu haben. Käufer sollten aktuell allerdings genau darauf achten, ob sie noch die erste oder schon die zweite AirTag-Generation erwerben.


Update

26.01.2026,

21:49

Uhr

In der Meldung stand ursprünglich irrtümlicherweise, die verbesserte Genauer-Finden-Funktion benötige ein iPhone 17 – tatsächlich sind alle iPhone-Modellreihen ab dem iPhone 15 mit der zweiten Generation von Apples dafür erforderlichem Ultrabreitbandchip ausgerüstet. Ausgenommen bleibt nur das iPhone 16e.


(lbe)



Source link

Weiterlesen

Beliebt