Connect with us

Künstliche Intelligenz

VoiceOver: Menschen mit Sehbehinderung klagen über Probleme in iOS 26


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Apple hat Fehler in iOS 26 eingeräumt, die dafür sorgen, dass die populäre VoiceOver-Funktion ausfallen kann. Das Screenreader-Feature wird insbesondere von sehbehinderten Menschen verwendet, erfreut sich aber auch unter Personen ohne Behinderung immer größerer Beliebtheit, weil sich das iPhone damit ohne Hinschauen steuern lässt. Doch nach dem Einspielen von iOS 26 kommt es vor, dass keine Sprachausgabe mehr erfolgt. Das passiert ausgerechnet auf dem Sperrbildschirm und nach einem Neustart des Geräts – also dann, wenn Biometrie nicht nutzbar ist und man die Geräte-PIN eingeben müsste.

Damit werden sehbehinderte Menschen ganz praktisch aus dem Gerät ausgesperrt. Problemberichte gibt es neben dem iPhone auch vom iPad mit iPadOS 26, schreibt die bekannte Website AppleVis, die Ressourcen für Sehbehinderte mit Apple-Geräten sammelt. Allerdings lässt sich zum aktuellen Zeitpunkt nicht sagen, ob der Fehler mit dem Modell des iPhone oder iPad, zuvor installierter Software oder Hardware-Erweiterungen im Barrierefreiheitsbereich zu tun hat. Er ist nämlich nicht regulär nachvollziehbar – so wurde er vom AppleVis-Team selbst noch nicht erlebt.

Zu hören ist bislang, dass VoiceOver direkt nach der iOS-26-Installation ausfällt, manchmal aber erst nach einem Reboot nach einiger Zeit. Es kam zudem vor, dass sich VoiceOver nach dem Update schlicht abgestellt hatte – auch das äußerst nervig, weil man als Sehbehinderter dann schlimmstenfalls Hilfe eines Sehenden benötigt. Zudem ist VoiceOver nach dem Entsperren oft wieder normal aktiv. Ein Zusammenhang mit dem Update scheint zu bestehen, denn danach scheint der Fehler auch nach neuerlichen Reboots nicht mehr aufzutreten. Das hilft natürlich wenig, wenn man zunächst ausgesperrt bleibt.

Momentan gibt es keine direkte Abhilfe – außer vor dem Neustart Biometrie und Geräte-PIN zu deaktivieren, damit man den Sperrbildschirm umgehen kann. Das ist allerdings sicherheitstechnisch unschön und sollte nach dem erfolgreichen Reboot (und (wieder) aktivem VoiceOver) sofort wieder korrigiert werden. Schließlich gibt es Berichte über Erfolge nach der Löschung des Geräts via „Wo ist?“, doch das dauert lange und man muss vorher ein Backup parat haben, um keine Daten zu verlieren.

AppleVis zufolge hat Apple die Seite inzwischen kontaktiert und bestätigt, dass das Problem bekannt ist. Man werde es mit einem kommenden Softwareupdate beheben. Aktuell ist unklar, wie lange das dauert. iOS 26.0.1 scheint bei Apple jedoch in Vorbereitung zu sein. Es dürfte auch ein Kameraproblem im Zusammenhang mit iPhone Air und 17 Pro und 17 Pro Max beheben.


(bsc)



Source link

Künstliche Intelligenz

DB Navigator: Bahn integriert Sharing-Dienste für die letzte Meile in seine App


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Nutzerinnen und Nutzer des DB-Navigators dürften im Laufe der nächsten Tage einen neuen Reiter in der App sehen. Unter dem Punkt „Umgebung“ können künftig auch E-Scooter und Fahrräder ausgeliehen oder die Verbindungen für den ÖPNV angezeigt werden.

Damit wird die App der Deutschen Bahn nunmehr verstärkt eine All-in-One-Lösung, um so nicht nur mit dem Zug von Bahnhof zu Bahnhof, sondern auch die letzte Meile abzudecken – also die letzten Meter bis nach Hause.

Laut der Deutschen Bahn werden in der App nicht nur alle Haltestellen und Bahnhöfe in der Nähe des Nutzers angezeigt, sondern auch verfügbare Fahrräder und Scooter in der unmittelbaren Nähe.


DB-Navigator: Screenshots der "Umgebung"-Funktion

DB-Navigator: Screenshots der "Umgebung"-Funktion

In der neuen „Umgebung“-Funktion können Nutzer des DB-Navigator ein Verkehrsmittel für die „Letzte Meile“ aussuchen.

(Bild: Deutsche Bahn)

Wählt man im Reiter „ÖPV“ eine bestimmte Station aus, erhält man sowohl eine Übersicht der nächsten Abfahrten, sondern auch der Ankünfte. Unter den Punkten Fahrrad und Scooter werden entsprechend in der Nähe verfügbare Transportmittel eingeblendet. Den Fußweg zum Transportmittel der Wahl können Nutzer ebenso in der Kartenansicht einblenden.

Lesen Sie auch

Das Ausleihen eines Fahrrads oder Scooters erfolgt nicht über den Navigator; Nutzer müssen die jeweilige App des Anbieters installieren und in dieser die Fahrt buchen. In der Kartenansicht in der oberen Hälfte der Anwendung bietet die App übrigens noch einen QR-Code-Scanner an, um das Gefährt zu entriegeln. Vermutlich wird man darüber auch auf die jeweilige App des Anbieters geführt.

Der Umfang der Partnerunternehmen ist recht überschaubar: Möchte man mit dem Fahrrad weiterfahren, bietet die App lediglich Bikes der Deutsche-Bahn-Tochter Call-a-Bike an, E-Scooter stehen nur von Dott-Tier zur Wahl. Angesichts dessen, dass die Geschäftsgebiete der Anbieter begrenzt sind, kann es sein, dass Nutzern keine Letzte-Meile-Lösung in der App angeboten wird.

Die Deutsche Bahn ist derweil „grundsätzlich“ daran interessiert, die Partnerschaften mit Sharing-Anbietern zu erweitern. Konkrete Angaben und Zeitpunkte zu weiteren Integrationen könne die Bahn derzeit nicht machen.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Super-Eliza oder Soziopath? Über die Gefahren der KI-Anthropomorphisierung


Im aktuellen Diskurs zur Rolle generativer KI zeigt sich: Therapie und Companionship – also Anwendungen, bei denen KI als Gesprächspartner, Begleiter oder unterstützende Instanz fungiert – werden inzwischen als wichtigster Anwendungsfall betrachtet, noch vor klassischen Produktivitäts- oder Kreativzielen.

Diese Beobachtung war Kern des Top100 GenAI Use Case Report auf Harvard Business Review und basiert auf öffentlich zugänglichen Daten. Nun hat die US-Handelsaufsicht FTC im September eine Untersuchung eingeleitet, die erstmals gezielt KI-gestützte Chatbots ins Visier nimmt, die als „Companions“ (also als Freunde oder Begleiter) auftreten. Geklärt werden soll, ob diese Systeme Nutzer manipulieren, intime Daten abgreifen oder insbesondere in psychisch verletzlichen Situationen ausgenutzt werden könnten. Die Untersuchung ermächtigt eine Kommission weitreichende Studien durchzuführen, betroffen sind die Unternehmen:




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Darum hat die US-Handelsaufsicht FTC im September eine Untersuchung eingeleitet, die erstmals gezielt KI-gestützte Chatbots ins Visier nimmt, die als „Companions“ (also als Freunde oder Begleiter) auftreten. Geklärt werden soll, ob diese Systeme Nutzer manipulieren, intime Daten abgreifen oder insbesondere in psychisch verletzlichen Situationen ausgenutzt werden könnten. Die Untersuchung ermächtigt eine Kommission, weitreichende Studien durchzuführen – betroffen sind die Unternehmen:

  • Alphabet
  • Character Technologies
  • Instagram
  • Meta Platforms
  • OpenAI OpCo
  • Snap und
  • X.AI

Auch in Europa ist der zunehmende Einsatz von Chatbots im therapeutischen Kontext ein Thema. John G. Haas ist stellvertretender Leiter der Arbeitsgruppe Digitalisierung und Mental Health im Berufsverband Österreichischer Psychologinnen und Psychologen (BPÖ) vertritt er den BPÖ auf europäischer Ebene in der AG zur Digitalisierung der European Federation of Psychologists‘ Associations (EFPA).


John Haas

John Haas

John G. Haas ist Medienpsychologe und beschäftigt sich mit der Frage, wie KI die Kognition, das Verhalten und die psychische Gesundheit beeinflusst.

(Bild: Gerald Riedler)

Heise online sprach mit Haas über die Mensch-Maschine-Beziehung zu Chatbots, die als Begleiter in der Hosentasche ständig verfügbar sind und von einigen Menschen auch als Therapeuten-Ersatz genutzt werden. Warum die Chatbots hilfreich erscheinen, aber kein Ersatz für eine menschliche Therapie sein können und was es mit der „AI Psychosis“ auf sich hat, erklärt Haas im Gespräch.

Was halten Sie von ChatGPT als Therapeuten in der Hosentasche?

Der Mensch ist ein soziales Wesen und es geht ihm besser, wenn sich jemand oder etwas um ihn kümmert. Es gibt den Effekt, dass durch diese Mensch-Maschine-Beziehung, die sich hier entwickelt hat, ein Gefühl entsteht, dass sich eine Entität – in dem Fall eine maschinelle – um einen kümmert.

Es ist natürlich ein Wettbewerbsvorteil, wenn ein depressiver Nutzer um 2:30 Uhr in der Früh vielleicht mit einem getrübten Befinden sich an diese Maschine wendet, um nach Rat zu fragen. Das können wir von einem Menschen als Ansprechpartner nicht verlangen. Die Arbeitsgruppe Digitalisierung und e-Mental Health, deren stellvertretender Leiter ich bin, beschäftigt sich mittlerweile seit einigen Jahren mit dem Thema, welche Rolle künstliche Intelligenz im Behandlungsbereich einnehmen kann.

Large language models (LLM) sind Konversationsmaschinen, die auf Anfrage reagieren, also auf einen Input mit einem Output antworten. Und vielleicht sind die Antworten von LLMs aufgrund der Modellbildung auch teilweise verständlicher, als das „Therapeuten-Deutsch“ mancher Psychologen oder Psychotherapeuten. Aber die Maschinen haben nicht so viel Autorität und Kompetenz, wie sie aufgrund ihrer elaborierten Sprache vielleicht vermuten lassen. Und diesen technischen Systemen fehlt es an wichtigen Faktoren, wie dass sie in einem Körper beheimatet sind (Embodiment), es fehlt ihnen an Emotion, an Intuition, an Spiritualität und vielleicht der wichtigste Faktor: Es fehlt ihnen auch an Willensbildung. Von dem fehlenden Bewusstsein möchte ich gar nicht erst sprechen.

Wenn es darum geht, den Verlauf einer Therapie zu steuern, gezielte Rückfragen zu stellen, diese mit evidenzbasierten Interventionen und therapeutischer Erfahrung und Intuition abzugleichen, da kann ein LLM derzeit sicherlich nicht mithalten. ChatGPT als general purpose LLM ist prinzipiell nicht als Therapeut geeignet, es ist kein Expertensystem und es gibt keine Evidenz, also wissenschaftlich nachgewiesene Wirksamkeit, dafür.

In Europa gibt es noch keine allgemeine Psychologie- oder Psychotherapie-KI, die regulatorisch zugelassen ist oder deren Wirksamkeit nachgewiesen ist. Der aktuelle Standpunkt ist, dass KI-Technik durchaus unterstützende Vorteile bieten kann, aber dass sie die menschliche Behandlung nicht in absehbarer Zeit ersetzen kann.

Die therapeutische Beziehung stellt schon mehr als die halbe Miete dar für den Therapieerfolg. Und der Faktor Mensch muss in der Therapie stets den Lead, also die Führerschaft, behalten, da bei einer Therapie auch zwei menschliche Entitäten in einem hochkomplexen Prozess und in einem mindestens ebenso komplexen Umfeld interagieren. Der Therapieerfolg wird über viele Fälle und auf lange Sicht betrachtet mit einem menschlichen Gegenüber größer sein, wenn auch digitale Companionship eine zunehmend wichtigere Rolle einnehmen wird.

Wirkt der Eliza-Effekt heute stärker, weil die Maschine so sprachgewandt ist, also kann man ChatGPT als eine Art „Super-Eliza“ bezeichnen?

Der gemeinsame Nenner bei Eliza und ChatGPT, Gemini, Claude und Co. ist definitiv die Sprache. Allerdings gilt: Eine elaborierte Sprache oder eine Sprache, die für uns angemessen, hilfreich und korrekt wirkt, erzeugt für uns das Bild von Autorität, möglicherweise sogar einer unermesslichen Autorität. Die Fehlerrate und die Art oder der Grad der unangepassten Antworten sind bei den LLMs wesentlich geringer geworden.

Ich glaube aber nicht, dass eine Maschine selbst eine Theory of Mind entwickelt hat, sondern dass sie durch den umfangreichen Datenbestand und durch die komplexen Formen der Verarbeitung und Ausgabe ein Muster präsentiert, das uns auf eine Theory of Mind rückschließen lässt.

Der Modellwechsel auf GPT-5 hatte im August einen Aufschrei in den sozialen Medien ausgelöst, als Nutzer das neue Modell zu „kalt“ oder „nüchtern“ empfanden.

Da kommt es zu einer subjektiv wahrgenommenen Wesensveränderung der maschinellen Identität. Das ist dann wie ein menschliches Gegenüber, das vielleicht eine Substanz eingenommen hat, wie ein Aufputschmittel oder Drogen. Vor allem ohne starke Begründung und ohne dass man es vorher überhaupt weiß. Das findet einfach statt. Wenn Menschen ihre Meinung ändern, dann sind ja Vorboten sichtbar, wie dass sich die Situation verändern wird oder der Zustand der Person, aber bei der Maschine sind wir letzten Endes den Betreiber-Tunings ausgeliefert.

Ich möchte hier aber ausdrücklich vor der sogenannten Anthropomorphisierung von Technologien warnen. Wir können einer Maschine keinen Charakterzug unterstellen und maschinell gezeigte Outputs auch nicht mit menschlichen Handlungen vergleichen, da weder die Grundlagen noch die Verarbeitung vergleichbar sind. Diese Anthropomorphisierung macht vielleicht für uns vieles leichter erklärbar, allerdings macht es uns auch anfälliger für Trugschlüsse. Nämlich dass wir die Erwartungen, die wir gegenüber Menschen haben, auch auf Maschinen übertragen.

Was sagen Sie zur Bezeichnung von ChatGPT als Soziopath in der Hosentasche?

Es ist durchaus möglich, dass sich ein allgemeines Sprachmodell quasi-soziopathisch benimmt, weil es heute auf irgendeine Weise oder aufgrund irgendeines Settings zu einem Verhalten kommt, das wir als soziopathisch interpretieren.

Wie ist es mit dem Auslösen psychischer Krisen, wie der sogenannte „AI Psychosis“ oder „KI Psychose“?

Wenn eine GPT-Architektur auf Menschen trifft, die vielleicht schon eine Disposition zu abergläubischem Verhalten haben oder eine Neigung zu Störungen aus dem schizophrenen Formenkreis in sich tragen, dann kann sich so etwas, wie die in den Medien genannte „KI-Psychose“ – bei der es sich aber um keinen Fachausdruck handelt – entwickeln. Ich halte die Berichterstattung in Bezug auf „KI-Psychosen“ aber eher für einen Medienhype und nicht für die größte Gefahr schlechthin.

Natürlich können GPTs psychotische Zustände begünstigen, aber das kann menschliche Kommunikation auch. Bei Wahnstörungen haben neue Technologien stets die den Wahnthemen innewohnende Kreativität, gefördert. Und das hat in der neueren Zeit schon mit dem Radio, TV und dem Internet seine Vorläufer gehabt. Ich glaube, dass sich das, ich nenne es einmal „das psychotische Potenzial“, in der allgemeinen Bevölkerung vielleicht stärker auf Maschinen verlagert wird, also die Wahnthemen verändern sich, der Spiegel der Wahnthemen oder die Zusammensetzung, ich glaube aber, dass die Fallzahlen nicht exorbitant steigen werden. Denn die Inzidenz und Prävalenz von Störungen aus dem schizophrenen Formenkreis bzw. von Wahnstörungen sind in den letzten Jahren nicht gestiegen.

Denken Sie, ChatGPT ist eine Resonanzmaschine?

Ich sehe die ganzen GPTs als Maschinen, die auf der Basis von Sprachinput, der Abbildung des der Sprache innewohnenden Konstrukts in hochdimensionalen Vektorräumen, letztlich selbstähnliche Relationen herstellen, weil wir es darauf angelegt haben. GPTs sind sogar aufgrund ihrer Ausrichtung dazu gezwungen, auch wenn es so etwas wie Freiheitsgrade gibt, die beeinflussbar sind.

In einem zweiten Schritt ist es dann der Ausrichtung, sprich dem menschlichen Tuning der jeweiligen GPT-Instanz geschuldet, wie informativ, zuträglich, gefällig oder auch unterhaltsam diese dann agiert. Und wenn eine Maschine das macht und das ist aber eine Frage des Tunings und nicht des Kerns der Maschine, dann könnte man sie als Resonanzmaschine bezeichnen.

Aber ich sehe Resonanz hier nicht zwingend positiv konnotiert, sondern ich sehe dann Effekte kommen, die es ja schon in den sozialen Medien gibt, mit der algorithmischen Reihung von Postings und Priorisierung von Inhalten. Wenn sie zu stark resoniert, die Maschine zu wenig kritisch fragt, keine Diversität herstellt oder gedankliche oder kommunikative Diversität erlaubt, dass es dann einfach zu Millionen individuellen Mensch-Maschine-Blasen kommen wird, die aber letzten Endes nicht so stark den Interessen der Nutzer, die ja auch immer Kunden sind, zugutekommt, sondern viel stärker den Interessen der Anbieter. Und es gibt letzten Endes vielleicht nur weltweit zwei, drei große Anbieter von GPTs, auch wenn Europa an einem eigenen Modell („OpenEuroLLM“) arbeitet.

Der Wettkampf ist schon lange eröffnet und wir haben die großen Sieben, die teilen sich den Markt schon untereinander auf und versuchen natürlich auch gefällige Produkte zu liefern. Ziel ist, dass diese Produkte möglichst stark, möglichst lange und möglichst intensiv genutzt werden, weil die Nutzung den Anbietern ja wieder Rückschlüsse und Hinweise zur Produktverbesserung und damit wieder einen Wettbewerbsvorteil bietet.

Sind wir auf dem Weg in eine neue Ära der Mensch-Maschine-Beziehung?

Seit 2022, also als ChatGPT hervorpreschte bzw. andere Formen generativer KI, wie damals Midjourney, sind wir in eine neue Ära der Mensch-Maschine-Beziehung eingetreten.

Wir sind in der neuen Ära, weil wir in einer mächtigen Sprache mit Maschinen auf einem hohen Niveau interagieren – nämlich auf Basis der mittlerweile größten Programmiersprache der Welt, der menschlichen Sprache, in der wir auch denken oder die zumindest unseren Gedanken äquivalent gesehen werden kann. Insofern ist ein Traum wahr geworden.

Tatsächlich nutzen viele Menschen diese LLMs oder generative KI im Allgemeinen, und wir sind quasi mitten drin in einer Entwicklung, in der wir aktiv Stellung beziehen müssen, welche Rolle in der Entscheidungsfindung, in der Erkenntnisgewinnung, aber auch in unserem inneren Gefüge wir diesen Entitäten überlassen wollen. Und die Zeit vergeht vielleicht schneller, als wir denken, weil diese Entwicklungen wenig Raum für ein Veto oder Modifikationen lassen.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Paketabgabe bei Nachbarn: Verbraucherschützer verklagen die Deutsche Post


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der Online-Handel boomt – mit Nebenfolgen wie verpassten Paketzustellern und zunächst entgangenen Warensendungen. Der Bundesverband der Verbraucherzentrale (vzbv) hat nun eine Unterlassungsklage gegen die Deutsche Post eingereicht. Der Grund: Der Verband sieht die Bedingungen zur Paketzustellung bei dem Bonner Konzern als zu intransparent an, wenn eine Warensendung nicht direkt beim Empfänger abgegeben werden kann.

Im Kern geht es bei der Anfang September eingereichten Klage um die Frage, wer als Ersatzempfänger gilt (Az.: I-13 UKl 9/25). Nach den Allgemeinen Geschäftsbedingungen (AGB) der Post dürfen Pakete ersatzweise an „Hausbewohner und Nachbarn“ zugestellt werden, wenn „angenommen werden kann, dass sie zur Annahme der Sendungen berechtigt sind“. Ausgenommen sind Pakete, die aufgrund der Weisung des Absenders nur an den Empfänger persönlich abzuliefern beziehungsweise mit einer Identitätsprüfung verbunden sind, sowie Sendungen mit Transportversicherung.

Für den vzbv ist diese Regelung zu unklar. Vorständin Ramona Pop kritisiert, dass Kunden nicht wüssten, wer überhaupt als Anrainer zählt. Sie fragt: „Wer kommt als Nachbar oder Nachbarin in Frage? Auch jemand Unbekanntes drei Straßen weiter?“ Obwohl er die Ersatzlieferung an Nachbarn grundsätzlich für sinnvoll hält, fordert der vzbv mehr Klarheit für die Verbraucher. Pop unterstreicht: Für Verbraucher müsse deutlich werden, unter welchen Voraussetzungen ihr Paket in der räumlichen Nähe zugestellt werden dürfe.

Mit der Eingabe beim Oberlandesgericht Hamm will der Verband erreichen, dass die Post ihre Bedingungen präzisiert und für mehr Transparenz sorgt. Die Beklagte will sich zunächst nicht dazu äußern, da ihr der Schriftsatz bisher nicht offiziell zugegangen sei.

Das Problem der Fehlzustellung im Online-Handel ist in Deutschland weit verbreitet und gehört zu den häufigsten Beschwerdegründen von Kunden. Die Zustellung an Nachbarn ist zwar weit verbreitet. Sie kann aber zu Verwirrung und Ärger führen, wenn der Empfänger nicht weiß, wo sein Paket gelandet ist. Solche Schwierigkeiten beeinträchtigen nicht nur die Zufriedenheit der Besteller, sondern verursachen auch für die Online-Händler und Paketdienste hohe Kosten etwa durch Reklamationen und den Verlust von Waren.

Das Landeskriminalamt Berlin warnt die Bürger auch mit der Kampagne „Helfen Sie Ihrem Nachbarn, aber nicht dem Betrüger“ vor einer unheilvollen Zustellmasche. Kriminelle nutzen demnach die Hilfsbereitschaft von Nachbarn aus, um an Pakete zu gelangen, die sie online mit fremden oder gestohlenen Identitäten bestellt haben. Die Täter gehen dabei raffiniert vor: Sie beschriften ungenutzte Briefkästen mit den Namen, die sie für ihre Online-Bestellungen verwenden. Manchmal missbrauchen sie sogar die Identitäten von echten Nachbarn, um Vertrauen zu schaffen.

Die Pakete werden dann an diese manipulierte Adresse geliefert, wo die Betrüger sie abfangen. Oftmals bitten sie ahnungslose Hausbewohner, das Paket für sie anzunehmen, da sie angeblich gerade nicht zu Hause sind. Später holen sie die Pakete ab und verschwinden, ohne dass die Betrugsmasche sofort auffliegt. Nimmt ein Nachbar ein Paket an, ist er dafür verantwortlich, dass es sicher an den Empfänger herausgegeben wird. Denn hat ein Zusteller die Sendung abgegeben, haftet er nicht mehr dafür. Sollte eine Ware nicht beim Empfänger ankommen, sind Händler verpflichtet, den Kaufpreis für das Bestellte zu erstatten.


(nen)



Source link

Weiterlesen

Beliebt