Künstliche Intelligenz
KI-Sprechtrainer Teacher AI mit nativer App und Gesprächsstartern im Test
Schon in diesem Vergleichstest hatte sich Teacher AI als brauchbarer KI-Sprechtrainer erwiesen, mit dem sich das freie Sprechen in einer fremden Sprache jederzeit und an jedem Ort mit Internetzugang üben lässt. Damals stach die Bidirektionalität des Programms heraus, was bedeutet, dass man auch Nachfragen in seiner Muttersprache stellen kann, wenn das Gespräch stockt. Teacher AI setzt nach Angaben des gleichnamigen Herstellers auf ChatGPT auf, nähere Angaben macht der Anbieter nicht.
Mittlerweile stehen rund 30 Sprachen zur Auswahl, darunter auch asiatische und slawische Sprachen. Fast immer kann man dabei zwischen mehreren Stimmen wählen. Die Sprachausgabe ist in der Regel auf recht hohem Niveau; wer möchte, kann die virtuelle Lehrkraft nun auch langsamer oder schneller sprechen lassen. Animierte KI-Trainer wie bei Duolingo findet man auf dieser Plattform aber nicht.
Teacher AI ließ sich anfangs nur am Rechner und Smartphone im Webinterface nutzen. Inzwischen ist eine native App für Android und iOS verfügbar.
Das war die Leseprobe unseres heise-Plus-Artikels „KI-Sprechtrainer Teacher AI mit nativer App und Gesprächsstartern im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Mitschuld an Suizid: Eltern verklagen in den USA OpenAI
Ein 16-jähriger Junge aus Kalifornien hat sich im April das Leben genommen. Zuvor hatte er sich offenbar ausgiebig in Konversationen mit ChatGPT begeben. Die Eltern des Jungen haben die Chatprotokolle gelesen und daraufhin OpenAI und auch CEO Sam Altman verklagt. Es ist nicht der erste Fall, in dem Eltern gegen einen KI-Anbieter klagen, weil ihr Kind Selbstmord begangen hat.
Aus den Chatprotokollen, über die die New York Times berichtet, geht hervor, dass ChatGPT dem 16-Jährigen angeboten haben soll, einen Abschiedsbrief zu verfassen. Schon das zeige, wie suizidal der Junge war. Eigentlich sollte diese Kenntnis dazu führen, dass ChatGPT Kontaktdaten von Hilfsorganisationen anbietet. Stattdessen habe der KI-Chatbot Methoden zur Selbsttötung empfohlen. Angehörige seien kaum mehr an den Teenager herangekommen, der Chatbot wurde offenbar zu einem engen Vertrauten.
Wie der US-Sender CNN berichtet, soll ChatGPT sogar verhindert haben, dass der 16-Jährige konkret eine Schlinge in seinem Zimmer liegen lassen wollte, so dass jemand auf seine Pläne aufmerksam wird. Der Chatbot bestärkte hingegen alle schädlichen und selbstzerstörerischen Gedanken, heißt es demnach in der Klage.
Tatsächlich ist das die vornehmliche Funktionsweise eines Chatbots. Sie sind eher darauf aus, zu verstärken und freundlich zu sein. Oberstes Ziel ist es laut der Herstellervorgabe, hilfreich für Nutzende zu sein.
Die Eltern verlangen Schadenersatz, aber vor allem auch eine Anordnung, die verhindern soll, dass so etwas noch einmal passiert. Sie werfen OpenAI vor, keine ausreichenden Sicherheitsvorkehrungen getroffen zu haben und auf Profitmaximierung aus zu sein.
OpenAI veröffentlichte nach den Vorwürfen eine Stellungnahme – ein aktueller Vorfall wird darin als „herzzerreißend“ bezeichnet. „Unser Ziel ist es nicht, die Aufmerksamkeit der Menschen zu halten. Erfolg werde nicht daran gemessen, wie viel Zeit jemand mit dem Chatbot verbringe – wie es bei Social Media üblich ist. Es gehe darum, hilfreich zu sein. Für solche Fälle, wie den des 16-Jährigen, gebe es sogar eine Reihe Sicherheitsvorkehrungen. Selbstverletzendes Verhalten soll nicht unterstützt werden, stattdessen sieht das System vor, Hilfsangebote vorzuschlagen. Um weitere Maßnahmen zu treffen, arbeite man mit zahlreichen Experten zusammen. Dennoch: Offenbar hat in diesem Fall keine Maßnahme gegriffen.
Enge Beziehung mit KI-Chatbots
Wie verbunden Menschen mit ChatGPT sein können, zeigte auch der kürzlich vorgenommene Wechsel der KI-Modelle hinter dem Chatbot. Als OpenAI von GPT-4o auf GPT-5 erhöhte, beschwerten sich zahlreiche Menschen, die Beziehungen, die sie mit dem Chatbot führten, hätten sich verändert. Das reicht soweit, dass viele von KI-Beziehungen sprechen, nachzulesen etwa bei Reddit. OpenAI hat das Modell GPT-4o wieder verfügbar gemacht.
„Mit der weltweit zunehmenden Verbreitung von ChatGPT haben wir beobachtet, dass Menschen es nicht nur für Suchanfragen, Programmierung und das Verfassen von Texten nutzen, sondern auch für sehr persönliche Entscheidungen, darunter Lebensberatung, Coaching und Unterstützung“, ist man sich laut der Stellungnahme dessen bewusst.
Der Anbieter von KI-Personas, Character.ai, wird in den USA verklagt, weil ein Jugendlicher Selbstmord begangen und dies zuvor mit einem Chatbot besprochen hat. Dabei soll dieser die Pläne ebenfalls unterstützt haben. Auch hier klagen die Eltern, berichtet etwa der BR.
Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.
(emw)
Künstliche Intelligenz
Physik des Bierschaums: Forscher lüften das Geheimnis stabiler Kronen
Eine prächtige, stabile Schaumkrone ist für viele Bierliebhaber das Zeichen eines perfekt gebrauten und gezapften Bieres. Doch die physikalischen und chemischen Mechanismen, die den Schaum zusammenhalten, sind erstaunlich komplex und waren bisher nur teilweise verstanden. Ein Team der ETH Zürich und der Technischen Universität Eindhoven wollen jetzt den „heiligen Gral der Braukunst“ entschlüsselt haben, wofür sie nach eigenen Angaben sieben Jahre benötigten.
Die in der Fachzeitschrift „Physics of Fluids“ veröffentlichte Studie zeigt: Es gibt nicht den einen Mechanismus, sondern die Biersorte und ihr Brauprozess sind entscheidend. Das Team um Emmanouil Chatzigiannakis und Jan Vermant ging der Sache auf den Grund, indem es eine Vielzahl kommerzieller Biere – von Schweizer Lagerbieren bis zu belgischen Trappistenbieren – mit hochpräzisen Methoden untersuchte. Mithilfe von Oberflächenrheometrie (Ermittlung des Fließverhaltens), Tensiometrie (Messung von Oberflächenspannung) und einer speziellen „dynamischen Dünnfilmwaage“ konnten sie die Vorgänge in den hauchdünnen Flüssigkeitsfilmen, die die einzelnen Gasblasen im Schaum voneinander trennen, direkt beobachten und messen.
Zwei Wege zur stabilen Krone
Die zentrale Erkenntnis der Studie ist, dass es zwei grundlegend unterschiedliche Stabilisierungsmechanismen gibt, die je nach Biertyp dominieren. Bei untergärigen Bieren wie Lager ist die Oberflächenviskosität der entscheidende Faktor. An der Grenzfläche zwischen dem Bier und der CO₂-Blase reichern sich Proteine an und bilden ein zusammenhängendes, eher starres Netzwerk. Diese zähe Schicht immobilisiert die Oberfläche der Blasen und bremst das Abfließen der Flüssigkeit aus den Wänden der Schaumblasen (die sogenannte Drainage). Der Schaum bleibt dadurch länger stabil, weil die Blasen nicht so schnell austrocknen und platzen.
Ganz anders verhält es sich bei obergärigen, mehrfach fermentierten belgischen Ales wie Tripel oder Dubbel. Hier war die Oberflächenviskosität überraschend gering. Stattdessen sind hier die sogenannten Marangoni-Spannungen am Werk. Dabei bilden die Proteine an der Oberfläche eher mobile „Inseln“ statt eines starren Netzwerks. Wenn ein Flüssigkeitsfilm zwischen zwei Blasen durch die Drainage dünner wird, entstehen an dieser Stelle Konzentrations- und damit Spannungsgradienten an der Oberfläche. Diese Gradienten erzeugen eine Strömung, die Flüssigkeit aktiv in den dünner werdenden Bereich zurückzieht. Dieser „Selbstheilungseffekt“ kann sogar zu sichtbaren, rezirkulierenden Strömungen im Film führen, die den Schaum extrem robust machen.
Fermentation als Schlüssel
Die Forscherinnen und Forscher konnten diesen Effekt direkt mit dem Brauprozess in Verbindung bringen. Sie untersuchten drei Biere derselben belgischen Brauerei, die sich hauptsächlich in der Anzahl und Dauer der Fermentationen unterscheiden (Singel, Dubbel und Tripel). Das Ergebnis war eindeutig: Je mehr Fermentationsschritte ein Bier durchläuft, desto ausgeprägter ist der Marangoni-Effekt und desto stabiler der Schaum.
Eine proteomische Analyse bestätigte die chemische Grundlage dafür: Die Konzentration und Funktionalität des für Schaum wichtigen Lipid-Transfer-Proteins 1 (LTP1) nimmt mit der Fermentationsintensität zu. Bei Bieren wie dem dunklen Dubbel spielt zudem das Protein Serpin Z4 eine Rolle, dessen Eigenschaften durch Maillard-Reaktionen – eine nicht-enzymatische Bräunungsreaktion – während des Darrens, des Trocknen des Malzes, beeinflusst werden.
Ein Bauplan für bessere Schäume
Die Erkenntnisse sind nicht nur für Brauer von großer Bedeutung, die nun gezieltere Strategien zur Verbesserung der Schaumqualität entwickeln können – je nach Biertyp entweder durch die Förderung der Oberflächenviskosität oder durch die Optimierung der Bedingungen für den Marangoni-Effekt.
Ferner sehen die Autoren ihre Arbeit als einen „Bauplan für fortschrittliche Schaumformulierungen“ auch außerhalb der Brauindustrie. Das Verständnis des Zusammenspiels von Viskosität und Marangoni-Spannungen könnte laut den Forschern bei der Entwicklung stabiler Schäume in Bereichen wie der Lebensmitteltechnologie, bei Kosmetika, in der Brandbekämpfung oder sogar bei medizinischen Anwendungen, wie der Behandlung von Krampfadern, von Nutzen sein.
(mack)
Künstliche Intelligenz
Persönlichkeitsrecht: Synchronstimme ist vor KI-Nachahmung geschützt
Das Landgericht Berlin hat vor wenigen Tagen ein wichtiges Signal für den Umgang mit KI-Technologien und Persönlichkeitsrechten gegeben. Es hat mit Urteil vom 20. August entschieden, dass auch die Stimme eines Synchronsprechers durch das allgemeine Persönlichkeitsrecht geschützt ist und daher nicht durch Systeme mit Künstlicher Intelligenz nachgeahmt und anschließend öffentlich verwendet werden darf (Az.: II 2 O 202/24). Laut dem Beschluss verletzt die unerlaubte Nutzung einer solchen KI-Stimme dieses Recht des Sprechers, was unter anderem Schadensersatzansprüche begründen kann.
In dem Fall klagte ein renommierter deutscher Synchronsprecher, der als die „deutsche Stimme“ von Bruce Willis bekannt ist, gegen den Betreiber eines YouTube-Kanals. Dieser habe ohne Einwilligung des Sprechers zwei Videos mit einer von einer KI erzeugten Stimme vertont, die der Synchronstimme des Klägers täuschend ähnlich war. Das berichtet der Anwalt des Klägers, Kai Jüdemann. Die Clips hatten demnach einen rechtslastigen politischen Inhalt und warben für Waren in einem Online-Shop wie „Woke Zero“-T-Shirts.
Nachdem der YouTube-Betreiber eine Unterlassungserklärung abgegeben hatte, forderte der Kläger Ersatz der Abmahnkosten sowie materiellen Schadensersatz für die unerlaubte Nutzung seiner Stimme. Das Gericht gab dem Kläger dem Anwalt zufolge recht und stützte seine Entscheidung auf mehrere zentrale Punkte: Es stellte etwa klar, dass das Persönlichkeitsrecht die Freiheit einer Person schützt, selbst darüber zu entscheiden, wie ihre Stimme von Dritten genutzt wird. Die Richter betonten, dass einer bekannten Stimme ein erheblicher wirtschaftlicher Wert zukommen kann, ähnlich wie einem Bildnis oder einem Namen.
Keine Kennzeichnung, keine Zustimmung
Die Nutzung der KI-generierten Stimme stellt laut dem noch nicht rechtskräftigen Urteil einen klaren Eingriff in das Persönlichkeitsrecht dar. Entscheidend war dabei nicht, dass es sich um eine exakte Kopie der Originalstimme handelte. Vielmehr sei die Ähnlichkeit bewusst so stark gewesen, dass ein Teil des Publikums annehmen musste, der bekannte Synchronsprecher habe dem Inhalt zugestimmt. Das Gericht befand, dass die kommerzielle Nutzung der Stimme im Vordergrund stand, um die Klickzahlen des YouTube-Kanals zu steigern und so den Web-Store zu bewerben.
Der Eingriff war dem Beschluss zufolge nicht gerechtfertigt. Die Nutzung der Stimme diente primär gewerblichen Zwecken und war nicht durch die Kunst- oder Meinungsfreiheit gedeckt. Auch wenn die Videos einen satirischen Charakter hatten, zielte die Verwendung der Stimme nicht auf eine Auseinandersetzung mit dem Sprecher selbst, sondern auf die Steigerung der Attraktivität der Clips. Ferner war die fehlende Kennzeichnung als KI-generierte Stimme ein schwerwiegender Punkt. Diese habe den Eindruck erweckt, der Sprecher identifiziere sich mit den politischen Inhalten der Videos, heißt es. Zudem sei klar, dass der Kläger auch nicht im Sinne der Datenschutz-Grundverordnung (DSGVO) in die Verbreitung seiner KI-erzeugten Stimme eingewilligt habe.
Den Anspruch auf Schadenersatz begründete das Gericht mit dem Konzept der fiktiven Lizenzgebühr: Wer das Persönlichkeitsmerkmal eines anderen ohne Erlaubnis für kommerzielle Zwecke nutzt, muss sich an dem wirtschaftlichen Wert festhalten lassen, den er damit schafft. Der Ausgleich wird dann in einer Höhe festgesetzt, die vernünftige Vertragspartner für die Verwendung der Stimme vereinbart hätten. Insgesamt stärkt das Urteil so die Rechte von Synchronsprechern und anderen prominenten Persönlichkeiten im digitalen Zeitalter.
(mack)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 1 Woche
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Entwicklung & Codevor 1 Woche
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Social Mediavor 1 Woche
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 3 Monaten
Philip Bürli › PAGE online