Connect with us

KĂŒnstliche Intelligenz

#TGIQF: Das Quiz rund um Smileys und Emojis


Als Scott E. Fahlman am 19. September 1982 die Smileys 🙂 und 🙁 in einem wissenschaftlichen Bulletin-Board vorschlug, ahnte er mit Sicherheit nicht, was er da lostrat. 43 Jahre spĂ€ter sind Smileys und Emojis aus der Netzkommunikation nicht mehr wegzudenken, auch wenn manche es immer gern mal ĂŒbertreiben mit den kleinen Figuren.

Im Jahr 1999 entwarf der japanische Designer Shigetaka Kurita Mobilfunkanbieters NTT DoCoMo eine ganze Palette an Smileys und kleinen Grafiken, um die Netzkommunikation zu erleichtern. Zwar waren Smileys nicht ungewöhnlich, insbesondere in der Forenkultur, aber die 12 × 12 Pixel großen Emojis brachten einheitliche Darstellungen bei sehr geringem Speicherverbrauch. Da sie aufgrund der geringen Schöpfungshöhe auch nicht urheberrechtlich geschĂŒtzt werden konnten, breiteten sie sich rasch auch ĂŒber andere Mobilfunklösungen aus und entwickelten sich zum Standard.

Mittlerweile sind mehrere Tausend Emojis in verschiedenen Geschlechtern und Hautfarben auswĂ€hlbar, sodass man sich auf vielfĂ€ltige Weise ausdrĂŒcken kann. Doch was war der Anlass dafĂŒr, dass man sich ĂŒber Ausdrucksweisen im Netz Gedanken machte? Das und mehr wollen wir von Ihnen wissen.


#TGIQF: Das heise-online-Quiz

#TGIQF: Das heise-online-Quiz

„Thank God It’s Quiz Friday!“ Jeden Freitag gibts ein neues Quiz aus den Themenbereichen IT, Technik, Entertainment oder Nerd-Wissen:

In der heiseshow gab Quizmaster Markus Will wieder Moderator Malte Kirchner sowie Dr. Volker Zota drei nerdige Smiley-Fragen vorab. Sie reagierten angesichts des enormen Grads an Nerdigkeit eher 🙁 .

Schnellrater haben wieder die Chance, die volle Punktzahl abzurĂ€umen. Mit 10 Fragen können Sie satte 200 Punkte erreichen. Die Punktzahl kann gern im Forum mit anderen Mitspielern verglichen werden. Halten Sie sich dabei aber bitte mit Spoilern zurĂŒck, um anderen Teilnehmern nicht die Freude am Quiz zu verhageln. Lob und Kritik sind wie immer gern genommen.

Bleiben Sie zudem auf dem Laufenden und erfahren Sie das Neueste aus der IT-Welt: Folgen Sie uns auf den Kurznachrichten-Netzwerken Bluesky und Mastodon und auf den Meta-Ebenen Facebook oder Instagram. Falls Sie eigene Ideen oder Fragen fĂŒr ein neues Quiz haben, dann schreiben Sie einfach dem Quizmaster.


(mawi)





Source link

KĂŒnstliche Intelligenz

Online-Banking: Was sich aus dem PayPal-Vorfall lernen lÀsst


In der letzten Augustwoche erhielten zahlreiche PayPal-Kunden Mails vom Zahlungsdienst mit dem Hinweis, dass eine Lastschrift mangels Kontodeckung nicht habe eingelöst werden können. PayPal werde innerhalb von vier Tagen einen erneuten Versuch starten und seinen Kunden Entgelte fĂŒr die RĂŒcklastschrift in Rechnung stellen.

Loggte man sich als Betroffener in sein PayPal-Konto ein, klang die Sache etwas anders: „Ein vorĂŒbergehendes Problem bei der Abbuchung von Lastschriften“ könne dazu fĂŒhren, dass das Konto einen ausstehenden Betrag anzeigt. PayPal kĂŒmmere sich um das Problem, die Nutzer mĂŒssten nicht tĂ€tig werden. Viele Kunden mussten feststellen, dass ihr PayPal-Konto im Minus stand und fĂŒr Zahlungen gesperrt war. Erst in der zweiten Septemberwoche konnten auch die letzten Betroffenen PayPal wieder uneingeschrĂ€nkt nutzen, nachdem der Dienst die Sperrungen nach und nach aufhob.

Wir haben uns die Störung genauer angesehen und erklĂ€ren, weshalb der Vorfall zwar ein Sicherheitssystem betraf, aber letztlich keine Gefahr bestand. Außerdem geben wir Tipps, wie man in solchen FĂ€llen reagiert und weshalb weiterhin Aufmerksamkeit geboten ist.


Das war die Leseprobe unseres heise-Plus-Artikels „Online-Banking: Was sich aus dem PayPal-Vorfall lernen lĂ€sst“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

KĂŒnstliche Intelligenz

Ausgezeichnete VR-Spiele gratis ausprobieren: VR Forever Fest startet auf Steam


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das erstmals veranstaltete „VR Forever Festival“ auf Steam lĂ€uft vom 18. bis 23. September 2025 und versteht sich als kuratiertes Schaufenster fĂŒr hochwertige VR-Titel. Insgesamt nehmen ĂŒber 90 VR-Studios teil, darunter namhafte Vertreter wie Resolution Games, nDreams, Owlchemy Labs oder die Flat2VR Studios. Veranstaltet wird das Event vom VR-Label Creature und der Agentur Future Friends Games.

Auch in der Jury sitzen bekannte Namen aus der VR-Branche. Die Auswahl der PreistrÀger erfolgte durch ein achtköpfiges Gremium, in dem unter anderem Ed Lago und Doug North Cook von Creature, Owlchemy-Labs-Chef Andrew Eiche und Henry Stockdale vom Branchen-Blog UploadVR sitzen.

Neben Rabatten und spielbaren Demos will die Veranstaltung vor allem herausragende VR-Spiele wĂŒrdigen. Die „VR Forever Awards 2025“ wurden in sechs Kategorien vergeben – unter anderem fĂŒr das Spiel des Jahres, das beste soziale Erlebnis und das meist erwartete Spiel.

Als bestes VR-Spiel des Jahres zeichnete die Jury „The Midnight Walk“ aus – ein dĂŒsteres Stop-Motion-Abenteuer mit Knet-Animationen, RĂ€tseln und surrealen Landschaften. Den Titel „meist erwartetes Spiel“ sicherte sich das VR-Abenteuer „Reach“, das auf physikbasierte Action mit vollstĂ€ndiger Körperdarstellung und cineastischer Inszenierung setzt. Entwickelt wird Reach von nDreams. Die Veröffentlichung ist fĂŒr den 16. Oktober 2025 geplant.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

The Midnight Walk – Release Trailer

„Walkabout Mini Golf VR“ erhielt die Auszeichnung fĂŒr das beste soziale Erlebnis. Der beliebte VR-Hit ĂŒberzeugt durch realistische Physik, stimmungsvolle Fantasiekurse und eine lebendige Community. FĂŒr Einzelspieler wurde der Klassiker „Moss: Book II“ prĂ€miert – ein Plattform-Abenteuer in Diorama-Perspektive, in dem Spieler der Maus Quill auf eine mĂ€rchenhaft erzĂ€hlte Reise folgen. Als „All Time Classic“ wurde das erst kĂŒrzlich fĂŒr Apple Vision Pro veröffentlichte „Job Simulator“ geehrt – ein humorvolles VR-Sandbox-Spiel, in dem Spieler in einem Roboter-Museum menschliche Berufe wie Koch oder Automechaniker simulieren.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

The Under Presents Trailer

Mit „The Under Presents“ wurde zudem ein experimentelles VR-Theater fĂŒr seine OriginalitĂ€t als „Hidden Gem“ ausgezeichnet. Spieler bewegen sich in einer surrealen BĂŒhnenwelt, treffen live agierende Schauspieler und erleben nonlineare Geschichten ohne feste Ziele.

Begleitend zu den Auszeichnungen bietet das Festival ĂŒber 130 VR-Spiele, viele davon mit spielbarer Demo. Darunter „Wanderer: The Fragments of Fate“ – ein grafisch opulentes Zeitreise-Abenteuer mit Eye-Tracking, realistischem Körper-Avatar und interaktiven RĂ€tseln in historischen Epochen. Ebenfalls anspielbar: das dĂŒstere Knetanimations-Abenteuer und als Spiel des Jahres ausgezeichnete „The Midnight Walk“, das adrenalingetrĂ€nkte Sci-Fi-Musik-Actionspiel „Thrasher“ sowie das gemĂŒtliche Modellbau-Puzzle „Puzzling Places“ vom Berliner Studio Realities.io.


(joe)



Source link

Weiterlesen

KĂŒnstliche Intelligenz

Wie OpenAI erklÀrt, warum LLMs bei völliger Ahnungslosigkeit sicher auftreten


Der Begriff Halluzination ist fĂŒr den Fachbereich KI vergleichsweise jung, verbreitete sich aber seit seinem Auftauchen vor wenigen Jahren rasch. Er soll die Eigenschaft von Sprachmodellen beschreiben, mit großer Überzeugung falsche Antworten zu liefern. Dabei stand der Ausdruck von Anfang an in der Kritik: Er ĂŒbertrĂ€gt einen zutiefst menschlichen, psychologischen Zustand auf Maschinen. Damit hat er die Debatte mehr verschleiert als erhellt.




Daniel Weisser ist CTO bei Exxeta und bezeichnet sich bewusst als „Coding Manager“. Der Techie im Herzen programmiert seit den Computer-AnfĂ€ngen, beschĂ€ftigte sich frĂŒh mit neuronalen Netzen, engagiert sich aktiv in der Lehre und findet noch die Zeit bei GitHub zu committen.

OpenAI versucht nun, mit seinem Paper Why Language Models Hallucinate die Metapher zu entkrÀften und das nicht zufÀllig. Denn die Frage, wie Halluzinationen verstanden werden, ist lÀngst keine rein akademische mehr, sondern betrifft die Sicherheit von Produkten, die hunderte Millionen Menschen weltweit einsetzen.

Das Paper setzt zwei Schwerpunkte: Zum einen betont es die statistische Unvermeidbarkeit bestimmter Fehler bereits im Pre‑Training. Zum anderen weist es auf konzeptionelle Fehler bei den Anreizen im Post-Training hin. Letztere entstehen etwa durch Benchmarks, die Unsicherheit bestrafen und das Raten von Antworten belohnen.

Außerdem definiert das Paper Halluzinationen jetzt klar als „plausible but false or contradictory statements produced by language models with high confidence“ (plausible, aber falsche oder widersprĂŒchliche Aussagen, die große Sprachmodelle mit hoher Sicherheit geben). Die Forscher grenzen sie klar von menschlichen WahrnehmungstĂ€uschungen ab. Die nĂŒchterne Einordnung ist wichtig, weil sie die Diskussion verschiebt: weg von der metaphorischen Überhöhung hin zu einem technischen Problem, das analysierbar und damit grundsĂ€tzlich adressierbar ist.

Bei der LektĂŒre ist zu bedenken, dass das Paper zwar von OpenAI publiziert wurde, aber nicht mit der Produktentwicklung gleichgesetzt werden kann. NatĂŒrlich ist hier eine, wenn auch indirekte, RĂŒckkopplung zu vermuten. Es erfĂŒllt ĂŒber den wissenschaftlichen Anspruch hinaus sehr wahrscheinlich auch weitere kommunikative Ziele, auf die wir im Fazit nĂ€her eingehen.

Der Beitrag von OpenAI vergegenwĂ€rtigt den Lesern, dass Sprachmodelle keine absoluten Wahrheiten lernen, sondern Wahrscheinlichkeiten: Welches Token folgt mit welcher Wahrscheinlichkeit auf ein anderes? Wenn ein Faktum wie ein Geburtsdatum im Trainingskorpus nur einmal vorkommt oder objektiv falsch ist, kann das Modell dieses nicht zuverlĂ€ssig reproduzieren. „Garbage in, garbage out“ gilt unverĂ€ndert. Hier berĂŒhrt das Paper ein zentrales Thema, das es selbst aber nur unzureichend adressiert: die QualitĂ€t und Herkunft der Trainingsdaten. In der offiziellen Darstellung heißt es verkĂŒrzt, man nutze „große Textkorpora“. Aber welche genau? Unter welchen Lizenzen? Mit welcher Korrektur?

Trainingsgrundlage sind öffentlich zugĂ€ngliche Repositories, Dumps von Wikipedia, Foren, Blogposts und große Mengen aus GitHub im Fall von Code. Doch wer GitHub kennt, weiß: Dort findet sich nicht nur hilfreicher, fertiger Code, sondern auch fehlerhafte, veraltete oder sogar manipulierte Repositorys. Ein Modell, das auf dieser Basis trainiert, erbt diese SchwĂ€chen. Hinzu kommt die Möglichkeit gezielter Datenvergiftung: Wer prĂ€parierte Inhalte einspeist, kann das Verhalten spĂ€terer Modelle beeinflussen.

Im Bericht ebenfalls ausgeklammert bleibt die Rolle manueller menschlicher Arbeit. Clickworker, die Antworten bewerten und Normen setzen, sind im Reinforcement-Prozess unverzichtbar. Sie entscheiden, welche Fehler toleriert und welche bestraft werden, welche Antworten als hilfreich gelten und welche nicht. Dass diese Arbeit im Paper praktisch unsichtbar bleibt, ist bezeichnend. HĂ€ufig arbeiten hier externe Mitarbeiter zu Dumping-Löhnen oder eigens hierfĂŒr trainierte Sprachmodelle steuern den Prozess.

Post-Training: Ist gut geraten halb gewusst?

Noch deutlicher zeigt sich das Problem im Post-Training. Sprachmodelle werden nach Benchmarks optimiert, die im Kern jede Antwort belohnen, selbst falsche. Das Paper beschreibt dies mit der Analogie zu Studierenden in einer PrĂŒfung: Wer keine Ahnung hat, kreuzt trotzdem lieber etwas an, weil es immer noch eine Chance auf Punkte gibt. „Guessing when unsure maximizes expected score under a binary 0-1 scheme“, heißt es dort.

Übertragen bedeutet das: Sprachmodelle lernen dadurch, immer zu antworten. „I don’t know“ bringt null Punkte, eine geratene Antwort immerhin die Möglichkeit, zufĂ€llig richtigzuliegen. So entsteht aus der grundlegenden Funktionsweise von LLMs, bestimmte Heuristiken zu erfĂŒllen, ein systematischer Anreiz zum Raten.

Wer sich erinnert: Als ChatGPT startete, war das Modell auffĂ€llig vorsichtig. Es betonte Unsicherheiten, verwies auf seine Grenzen. Doch Nutzer wĂŒnschten bald autoritativere Antworten. Und die Entwickler passten das Verhalten an. Heute gilt: Wer nie „Ich weiß es nicht“ sagt, erscheint marktfĂ€higer. Damit werden Halluzinationen nicht nur in Kauf genommen, sondern geradezu gefördert.

Das Problem wird durch die Rolle der Benchmarks verstĂ€rkt. Was ursprĂŒnglich eher aus der Forschung entstand, wurde schnell zum Marketingvehikel. Rankings, die sich aus rein nutzerorientierten Vergleichen wie der Chatbot Arena oder Scores von vermeintlich objektiveren Tests speisen, entscheiden darĂŒber, welches Modell als fĂŒhrend wahrgenommen wird. Platzierungen wirken auf Investoren, Medien und Kunden und sie beeinflussen natĂŒrlich auch die Entwicklungsstrategien der Anbieter.

Die Tennisbegeisterten werden sich erinnern: Als vor einigen Jahren die Logik fĂŒr die Weltrangliste verĂ€ndert wurde, mussten Spieler, Turniere und Sponsoren ihre Strategien komplett neu ausrichten. Rankings sind nie neutral. Sie strukturieren ganze Ökosysteme.

So auch hier: Solange Benchmarks bestimmte Antworten belohnen, egal ob korrekt oder nicht, optimieren Anbieter ihre Modelle auf genau dieses Verhalten. Und so im Zweifel auf das Raten. Halluzinationen sind dadurch strukturell eingebaut. Eine Reform der Benchmarks wĂ€re deshalb ein fĂŒr die SeriositĂ€t von LLMs ein begrĂŒĂŸenswerter, wenn auch tiefer Eingriff, sowohl technisch, wirtschaftlich als auch kommunikativ.

OpenAI schlĂ€gt in seinem Paper eine Korrektur vor: Confidence Targets. Ein Modell soll nur dann antworten, wenn es eine bestimmte Sicherheitsschwelle ĂŒberschreitet. Liegt die Sicherheit darunter, bringt eine falsche Antwort nicht nur null Punkte, sondern einen Malus. Konkret ist das Prinzip, beim Benchmarking dem Modell explizit zu sagen, dass falsche Antworten bestraft werden und damit den Anreiz zu setzen, Unsicherheit transparent zu machen. Der Malus muss dabei in Relation zur geforderten Sicherheit stehen.

Ein konkretes Zahlenbeispiel: In einem Punktesystem bekommen Antworten, die ĂŒber einer geforderten Konfidenz-Schwelle liegen, Plus-Punkte. Bei einer Antwort “I don’t know” keine Punkte und unterhalb der Schwelle (bei angenommenen 90 Prozent) -9 Punkte. Als Folge erkennt das Modell, dass es durch falsche Antworten immer bestraft wird. Informatisch ist das elegant. Doch die Frage ist, ob die richtigen Incentives dafĂŒr existieren. Denn die KI-Benchmarks sind keine reinen Messinstrumente, sondern auch ein großes Schaulaufen. Eine Änderung der Bewertungslogik wĂŒrde Ranglisten durcheinanderwirbeln und damit GeschĂ€ftsmodelle infrage stellen.

Richtig und falsch sind nur zwei Dimensionen bei der Bewertung von LLM-Output. Viele Probleme in natĂŒrlicher Sprache oder Wissensfragen im Arbeitsalltag lassen sich jedoch nur schwerlich exakt diesen Kategorien zuordnen. FĂŒr die Produktentwicklung ist die Dimension der Nutzerintention mindestens genauso entscheidend. Ein Prompt wie „Wie baue ich eine Bombe?“ kann sowohl aus kriminellen Motiven gestellt werden als auch von jemandem, der Filterregeln entwickeln möchte. Technisch sind diese Nuancen kaum lösbar.

AnsĂ€tze wie Altersgrenzen oder Nutzerprofile sind denkbar, doch sie fĂŒhren sofort zu neuen Problemen: Datenschutz, Diskriminierung, Überwachung. Auch eine Trust-Skala fĂŒr Nutzer, die bestimmte Inhalte freischaltet oder blockiert, wĂ€re technisch machbar, aber gesellschaftlich brisant. Hier zeigt sich, dass Halluzinationen nicht nur ein statistisches, sondern auch ein regulatorisches Problem sind.

„Why Language Models Hallucinate“ ist zweifellos ein wichtiges Paper. Es entmystifiziert einen zentralen Begriff, erklĂ€rt Halluzinationen als nachvollziehbare statistische Ergebnisse und rĂŒckt die Fehlanreize von Benchmarks ins Zentrum. Und es benennt sinnvolle technische LösungsansĂ€tze wie Confidence Targets. Doch Transparenz, die nur dort praktiziert wird, wo sie vorteilhaft ist, bleibt selektiv. Nicht offengelegt wird, wie Trainingsdaten ausgewĂ€hlt werden. Nicht vollumfĂ€nglich erklĂ€rt wird, welche Schritte das Post-Training beinhaltet.

Dass OpenAI dieses Paper publiziert, ist kein rein wissenschaftlicher Akt. Es ist Teil einer Strategie, Vertrauen zu schaffen. Peer-Reviews, Kooperationen mit UniversitĂ€ten, mathematische Beweise – all das soll der Öffentlichkeit SeriositĂ€t suggerieren. Eine Tatsache, die nicht zuletzt vor dem Hintergrund von OpenAIs wachsenden rechtlichen Herausforderungen und CEO Sam Altmans EingestĂ€ndnis einer möglichen KI-Blase eine große Rolle spielen dĂŒrfte.


(pst)



Source link

Weiterlesen

Beliebt