Connect with us

Online Marketing & SEO

How-To – Barrierefreiheit: In fünf Schritten zu barrierefreien Produkten, die allen besser gefallen


Seit Ende Juni müssen digitale Produkte und Services barrierefrei sein. Andernfalls drohen empfindliche Strafen. Doch wie können Marken und Unternehmen Websites, Apps & Co so gestalten, dass sie wirklich von allen Menschen genutzt werden können? Felix van de Sand, CEO von COBE, erklärt in fünf Schritten, wie das geht.

Barrierefreiheit – viele reden darüber, nur wenige wissen wirklich, was es bedeutet. Für die einen ist es ein reines Entwickler:innen-Thema, für andere eine rechtliche Notwendigkeit, die man „irgendwann“ in Angriff nehmen sollte. Fakt ist: Die digitale Barrierefreiheit hat jahrelang ein Nischendasein gefristet. Mit dem Inkrafttreten des Barrierefreiheitsstärkungsgesetz (BFSG) am 28. Juni wurde aus der Empfehlung eine Verpflichtung.

Was das bedeutet? Digitale Produkte und Services müssen ab sofort so gestaltet sein, dass sie von (möglichst) allen Menschen genutzt werden können – unabhängig davon, ob jemand eine Seh- oder Hörbehinderung, eine motorische Einschränkung oder eine kognitive Beeinträchtigung hat. Und das betrifft nicht nur klassische Websites, sondern auch E-Commerce-Plattformen, Banking-Apps, Betriebssysteme, öffentliche Verkehrsmittel oder Self-Service-Terminals.

87 Millionen Menschen in der EU leben mit einer Behinderung – das ist fast jede:r Fünfte. Weltweit sind es laut WHO sogar rund 1,3 Milliarden Menschen. Damit geht es bei der Fokussierung auf Barrierefreiheit nicht nur um Inklusion, sondern auch um Wettbewerbsfähigkeit: Wer nicht für diese Zielgruppe gestaltet, verschenkt Potenzial. Zudem drohen mit Inkrafttreten des BFSG empfindliche Strafen: In Deutschland können Unternehmen, deren Barrierefreiheit nicht den neuen Standards entspricht, mit Bußgeldern von bis zu 500.000 Euro belegt werden.

Doch trotz dieser Dringlichkeit herrscht in vielen Teams Unsicherheit. Was genau macht ein digitales Produkt barrierefrei? Und wie setzt man das um, ohne Prozesse zu verlangsamen oder bestehende Designsysteme zu sprengen? Fünf Schritte helfen, strukturiert, nachhaltig und effizient an die Sache ranzugehen.

1.

Ein gemeinsames Ziel vor Augen führen

Barrierefreiheit bedeutet nicht „Design für Menschen mit Behinderung“. Es bedeutet: Gestaltung, die niemanden ausschließt. Denn Barrieren entstehen oft dort, wo nicht mitgedacht wird – bei kleinen Schriftgrößen, unklaren Formularen, schlecht kontrastierten Farben oder fehlenden Alternativtexten für Bilder.

Das Ziel ist also nicht, eine besondere Alternativ-Versionen für bestimmte Gruppen zu bauen, sondern Produkte von vornherein so zu gestalten, dass sie für möglichst viele Menschen funktionieren. Ein guter Startpunkt sind die Web Content Accessibility Guidelines (WCAG). Sie gliedern sich in drei Stufen – A, AA (Pflicht nach BFSG) und AAA – und bauen auf vier Prinzipien auf: Inhalte müssen wahrnehmbar, bedienbar, verständlich und robust sein.

Es ist entscheidend, dieses Verständnis im gesamten Team zu schaffen, idealerweise im gesamten Unternehmen. Diese Basis ist wichtig, um gemeinsam auf das Ziel Barrierefreiheit hinzuarbeiten – ohne das eigentliche Ziel eines erfolgreichen digitalen Produkts aus den Augen zu verlieren.

2.

Verständnis und Bewusstsein schaffen

Barrierefreiheit beginnt mit Bewusstsein. Deshalb sollten alle Projektbeteiligten die Grundlagen inklusiven Designs und vor allem auch mögliche Barrieren von Nutzer:innen kennen. Online-Kurse, interne Guidelines oder interaktive Workshops mit Accessibility-Expert:innen helfen, das Thema aus der Theorie in die Praxis zu bringen.
Besonders hilfreich: Fallbeispiele und Live-Tests mit Betroffenen. Wer einmal erlebt hat, wie eine schlecht getaggte Seite über einen Screenreader klingt, versteht sehr schnell, warum semantisches HTML keine Nebensache ist. Wer selbst einmal damit umgehen muss, wie schlecht sich eine Seite ohne Maus navigieren lässt, deren Elemente nicht alle mit der Tab-Taste fokussierbar sind, wird hierfür eine Lösung suchen wollen. Das fördert nicht nur Qualität, sondern auch Motivation.

3.

Schwach- und Baustellen identifizieren und angehen

Bevor mit der Umsetzung begonnen wird, braucht es Klarheit über Zuständigkeiten, Prozesse und Werkzeuge. Accessibility darf nicht allein bei der Entwicklung verortet werden. Es betrifft UX, UI, Content, QA, Management. Kurz: alle, die an digitalen Produkten mitwirken – sowohl an den bestehenden als auch an der Produktentwicklung.

Für die tatsächlichen To-Dos ist die sogenannte A11Y-Checkliste ein guter Startpunkt. Sie deckt typische Problemfelder ab – von Überschriftenstruktur über Farbkontraste bis hin zur Tastaturnavigation – und hilft dabei, bestehende Produkte systematisch zu überprüfen. Zusätzlich bieten Design-Tools wie Figma zahlreiche Plugins, um Accessibility direkt im Designprozess mitzudenken: etwa der a11y Color Contrast Checker, Annotation Kits oder der Stark-Plugin. Wer dann seine Schwach- und Baustellen kennt, kann sichergehen, die notwendige Expertise im Team zu haben oder entsprechend beispielsweise mit externer Unterstützung nachhelfen.

4.

Umsetzen, testen, messen, verbessern

Accessibility ist kein Sprint. Die Anforderungen entwickeln sich weiter. Wer dauerhaft compliant bleiben will, braucht regelmäßige Updates – sowohl technisch als auch organisatorisch. Es braucht systematische Qualitätssicherung. Neben automatisierten Tests (zum Beispiel mit Tools wie WAVE oder Axe) sollte auch regelmäßig manuell geprüft werden: Funktionieren alle Interaktionen mit der Tastatur? Gibt es sinnvolle Alternativtexte? Sind Fehlerhinweise verständlich?

Idealerweise werden reale Nutzer:innen mit unterschiedlichen Einschränkungen in Usability-Tests einbezogen. Ihre Perspektiven sind enorm wertvoll, denn sie zeigen oft Probleme auf, die den technischen Tests entgehen. Ergänzend dazu sollte jedes Projekt über eine lebende Dokumentation verfügen: Checklisten, bekannte Stolperfallen, bewährte Patterns. So wird Accessibility Teil der täglichen Praxis.

5.

Accessibility zur Haltung machen

Wer Barrierefreiheit wirklich erfolgreich umsetzen will, muss sie als Teil der Marken-DNA begreifen – nicht als Checkliste, sondern als Grundhaltung. Denn inklusive Produkte wirken auf alle: Sie vermitteln Verantwortung, Professionalität, Qualität. Wenn es gelingt, Accessibility mit der Markenidentität in Einklang zu bringen, verfliegen auch schnell die Bedenken dazu, dass sich Barrierefreiheit negativ auf die User Experience auswirkt.

Barrierefreiheit ist ein kontinuierlicher Bestandteil moderner Produktentwicklung – genauso wie Performance, Security oder UX. Wer jetzt handelt, verschafft sich nicht nur Rechtssicherheit, sondern bleibt auch im Rennen um Wettbewerbsvorteile: durch bessere Produkte, zufriedenere Nutzer:innen, ein glaubwürdiges Markenbild. Klar strukturierte Seiten, verständliche Sprache, funktionierende Navigation und reduzierte Komplexität führen meistens zu besseren Nutzungserlebnissen – und damit auch zu besseren Ergebnissen. Was als „Zugeständnis“ für bestimmte Nutzergruppen gedacht ist, wird oft zum echten Mehrwert für alle.



Source link

Online Marketing & SEO

Unfreiwillig auf der Instagram Map? So bleibst du privat!


Orts-Tags in Storys oder Reels reichen aus, um auf der Instagram Map sichtbar zu sein – auch ohne Freigabe. Warum das vielen zum Verhängnis wird und wie du dich davor schützt, unfreiwillig auf der Karte zu landen.

Instagram wollte mit der neuen Map-Funktion eigentlich mehr Nähe schaffen, avancierte mit dem Feature jedoch unfreiwillig zum Auslöser einer hitzigen Datenschutzdebatte. Auf Threads und in anderen sozialen Netzwerken teilen Nutzer:innen seit dem Roll-out Screenshots und Erfahrungsberichte, die zeigen: Auch bei deaktivierter Standortfreigabe tauchen sie auf der Karte auf. Der Grund liegt in einer kaum nachvollziehbaren, systemseitigen Verknüpfung von Orts-Tags und Kartensichtbarkeit und in fehlender Transparenz innerhalb der Einstellungen. Viele verstehen erst zu spät, dass ihre Inhalte auf der Map landen, obwohl sie keine Standortfreigabe aktiviert haben.


Inspiriert von TikTok, Snapchat und sich selbst:
Instagram bringt Reposting Feature, Map und Reels Friends Tab

Drei nebeneinander dargestellte Smartphone-Screenshots der Instagram App. Links: geöffneter Friends Tab in Reels mit Video und Interaktionen. Mitte: Profilansicht mit Repost Tab. Rechts: Feed mit einem Repost-Beitrag. Der Hintergrund zeigt einen Farbverlauf in Lila, Pink und Blau.
© Meta / Instagram

Orts-Tags werden zu Standortdaten: Warum Instagram User unfreiwillig auf der Map auftauchen

Die neue Funktion Instagram Map erinnert stark an Snapchats Snap Map – mit einem entscheidenden Unterschied: Zwar ist Snapchat auch eine Social App ist, hat sich aber früh und offen zur Nutzung von Standortdaten bekannt. Instagram hingegen positioniert sich vorrangig als visuelle Content-Plattform mit algorithmischem Feed und klassischen Social Features wie Likes, Stories und Kommentaren. Der Standort spielte bisher eher eine Nebenrolle, etwa zur Kontextualisierung eines Posts oder zur Verbesserung der Reichweite durch Orts-Tags. Bis jetzt.

Die Instagram Map ist nicht prominent im Feed oder im Profil platziert, sondern taucht dezent in den Direktnachrichten auf. Dort zeigt sie an, wo sich Freund:innen oder Creator zuletzt aufgehalten haben, inklusive Reels, Stories und Notizen, die an einem bestimmten Ort gepostet wurden. Doch genau dieses neue Discovery Feature sorgt gerade für massive Irritationen. Zahlreiche Nutzer:innen, wie etwa Terrance Williams berichten nach dem Roll-out, dass sie auf der Karte sichtbar sind, obwohl sie ihre Standortfreigabe deaktiviert haben.

Der Grund liegt in einem technischen Detail, das viele erst auf den zweiten Blick verstehen: Wer in einem öffentlichen Reel oder einer Story einen Ort markiert, wird automatisch für 24 Stunden auf der Map angezeigt – ganz unabhängig von der persönlichen Freigabeeinstellung. Die Plattform liest dabei Orts-Tags aus dem Content aus und reichert so die Map mit Beiträgen an. Was bislang in der Oberfläche verstreut und oft übersehen war, wird durch die neue Kartenansicht gebündelt und auffällig sichtbar.

Dass dieses Verhalten für Verunsicherung sorgt, ist wenig überraschend. Der Publisher TechCrunch berichtet, dass zahlreiche Nutzer:innen den Eindruck hatten, der Standort würde ohne Zustimmung öffentlich gemacht. Auch Engadget hat das Feature getestet. In einem Selbstversuch schildert die Redakteurin Karissa Bell, wie sie nach dem Markieren des Botanischen Gartens von San Francisco in ihrer Story sofort auf der Karte erschien – obwohl sie ihre Standortfreigabe explizit auf „No one“ gesetzt hatte.

Darüber hinaus wird die Instagram Map auch grundlegend kritisiert, etwa von Threads-Nutzerin @morewithmj, die auf die besonderen Risiken für Frauen hinweist und fehlende Schutzmechanismen in der Sichtbarkeit auf der Karte thematisiert.

Adam Mosseri versucht zu beruhigen und liefert unfreiwillig den besten Beleg fürs Problem

Auf Threads bemühte sich Instagram-Chef Adam Mosseri, die Aufregung zu dämpfen.

Doch die Diskussion war längst eskaliert: Bereits am 7. August 2025 zählte der Hashtag #InstagramMap über 850.000 Beiträge – viele davon geprägt von Misstrauen und Unverständnis.

Screenshot aus Threads: „Instagram map raises concerns over safety and privacy.“ mit 877K Posts. Rechts eine Vorschau der Instagram Map-Funktion mit Kartenansicht und Standortfreigabeeinstellungen.
Trending auf Threads: Kritik an der Instagram Map, © Threads / Meta

Most people are confused and assume others can see them because they see themselves.

Erklärte Mosseri in einem Kommentar. Damit spricht er eines der zentralen Missverständnisse direkt an – räumt aber gleichzeitig ein, dass die Funktion nicht intuitiv ist. Zwar verweist er auf die doppelte Zustimmung zur Live-Standortfreigabe, doch am eigentlichen Kritikpunkt ändert das nichts: Beiträge mit Orts-Tags erscheinen automatisch auf der Map, auch wenn Nutzer:innen dem Teilen ihres Standorts nie aktiv zugestimmt haben.

Wie du vermeiden kannst, auf der Instagram Map sichtbar zu werden

Die Einstellungen zur Standortfreigabe findest du im Bereich „Story, Live und Standort“ in deinem Profil. Dort kannst du festlegen, wer deinen Live-Standort sehen darf, etwa Freund:innen, enge Kontakte, ausgewählte Personen oder niemand. Diese Auswahl betrifft jedoch nicht automatisch deine Inhalte mit Orts-Tags.

Screenshot der Instagram Map-Einstellungen mit Auswahloptionen zur Standortfreigabe: „Friends“, „Close Friends“, „Only these friends“ und „No one“, wobei „No one“ ausgewählt ist. Oben erscheint der Hinweis: „You are not sharing your location.“
Instagram Map: Standortfreigabe im Kontrollmenü, © Instagram

Denn: Öffentliche Stories oder Reels mit einem markierten Ort erscheinen automatisch für 24 Stunden auf der Instagram Map – selbst wenn die generelle Standortfreigabe deaktiviert ist. Um das zu verhindern, kannst du:

  • den Ort nachträglich entfernen oder
  • den Beitrag vollständig löschen, falls er bereits veröffentlicht wurde.

Zusätzlich bietet Instagram die Option, sensible Orte wie dein Zuhause manuell zu verbergen. Die Funktion „Orte verbergen“ findest du über das Drei-Punkte-Menü innerhalb der Kartenansicht. Dort kannst du eine Stecknadel auf der Map setzen und einen Radius festlegen, in dem du dauerhaft nicht angezeigt werden möchtest. Die Umsetzung ist allerdings etwas umständlich – spezifische Adressen lassen sich nicht eingeben, nur manuell auf der Karte markieren. Kurz gesagt: Wer keine ungewollten Spuren auf der Map hinterlassen möchte, muss Inhalte aktiv managen und sich durch mehrere Menüs klicken. Transparenz sieht anders aus.

Was der Launch der Instagram Map lehrt

Die Instagram Map zeigt, wo du bist – auch wenn du denkst, du hast das ausgestellt. Du musst nicht mal deinen Standort freigeben, es reicht schon, wenn du in einer Story oder einem Reel einen Ort markierst. Dann landet dein Beitrag automatisch auf der Karte. Für 24 Stunden. Für alle sichtbar, die Zugang haben. Viele wissen das nicht und wundern sich, warum sie plötzlich auf der Map auftauchen. Deshalb:

  • Keine Orts-Tags setzen, wenn du nicht auf der Map landen willst.
  • Alte Beiträge checken oder löschen, wenn du schon was markiert hast.
  • Einstellungen in der App durchgehen, um sicherzugehen, dass du wirklich nichts freigibst.

Instagram hat ein Feature gebaut, das Nähe ermöglichen soll, aber für viele eher Kontrollverlust bedeutet. Wer nicht auftauchen will, muss sich (leider) kümmern.


Meta stellt die persönliche Superintelligenz vor
– KI erhöht schon Nutzungszeit auf Instagram





Source link

Weiterlesen

Online Marketing & SEO

Kreation von Grabarz & Partner: Burger King feiert die neuen Varianten des Long Chicken


Burger King bringt wirbt mit einem witzigen Spot für die drei neue Varianten des Long Chicken

Burger King trommelt für den längsten Burger in seinem Sortiment: In einem neuen TV- und Onlinespot feiert der Fastfood-Riese zusammen mit Grabarz & Partner die drei neuen Varianten des Long Chicken mit einer Ein-Wort-Arie.

Burger King ruft in Deutschland die „Long Weeks“ aus. Ab sofort gibt es bei dem Burgerbrater den Long Chicken in drei neuen Geschmacksrichtungen: Hot Honey, Teriyaki und Supreme. Die drei Varianten sind auch als Plant-based-Option und nur für kurze Zeit erhältlich. Zusätzlich bewirbt Burger King den neuen Cheddar Cheese Dip Pot als perfekte Ergänzung zum Long Chicken.

Um auf die neuen Burger aufmerksam zu machen, hat Grabarz & Partner eine TV- und Onlinekampagne entwickelt, die unter dem simplen Motto „Loooooooong“ steht. In dem 20-Sekünder setzt ein Pärchen im Drive-In zur Bestellung an, doch überraschend wird daraus eine Ein-Wort-Arie, bei dem alle Protagonisten in dem Spot das einsilbige Wort „Long“ fast in Pavarotti-Manier in die Länge ziehen. Zum Glück hat die Burger-King-Mitarbeiterin kein Problem zu verstehen, welcher Burger im Sortiment gemeint ist.

Der humorvolle Auftritt läuft seit dieser Woche im TV, in den Digital- und Social-Media-Kanälen sowie im Radio. Neben Grabarz & Partner im kreativen Lead sind auch Charles & Charlotte – die junge Agentur hat gerade erst den Gewinn des Social-Media-Etats bei Burger King verkündet -, Dentsu X (Media), Dentsu Creative (Influencer), Burgerware (Werbung) und Ketchum (PR) an der Kampagne beteiligt.



Source link

Weiterlesen

Online Marketing & SEO

OpenAI bringt GPT‑5 für alle – das sind die Neuerungen


Dabei bleibt es nicht beim Chatten: GPT‑5 kann Websites programmieren, bei medizinischen Fragen weiterhelfen oder Bilder analysieren. Möglich macht das eine neue Architektur, die echtes Nachdenken simuliert. Gleichzeitig teilt OpenAI das Modell erstmals in verschiedene Versionen auf – von Mini bis Pro. Wer besonders komplexe Aufgaben lösen möchte, braucht ein Abo. OpenAI teilt das neue Modell in verschiedene Versionen auf – von Mini bis Pro. Wer besonders komplexe Aufgaben lösen möchte, braucht ein Abo.

Obwohl GPT‑5 offiziell veröffentlicht wurde, ist der Zugang nicht überall gleichzeitig verfügbar. In vielen Ländern – auch in Deutschland – wird das Modell schrittweise freigeschaltet, unter anderem wegen Datenschutz- und Regulierungsanforderungen. Derzeit ist GPT‑5 bei uns noch nicht nutzbar, auch mit Plus-Abo.


So viele hundert Millionen nutzen ChatGPT jetzt pro Woche
– App schlägt Pausen vor


Launch folgt kurz nach Leak – Zugriff je nach Region

Schon einen Tag vor der offiziellen Vorstellung machte ein Leak die Runde: Ein inzwischen gelöschter, aber weiterhin archivierter GitHub Post zeigt nicht nur neue Modellnamen wie GPT-5 Mini, Nano, Chat und Pro, sondern auch Leistungsdaten, die für Aufsehen sorgten. Besonders die Pro-Version soll demnach fähig sein, Aufgaben auf Forschungsniveau zu lösen. Der OpenAI CEO Sam Altman hatte den Launch bereits indirekt angeteasert: Ein Livestream mit einem durch eine „5“ ersetzten Buchstaben im Titel sprach für sich. Nun ist GPT-5 offiziell verfügbar – für alle Nutzer:innen von ChatGPT, mit gestaffeltem Zugriff je nach Abostufe.

  • Zugriff in den USA: GPT‑5 ist seit dem 7. August 2025 in den USA verfügbar – je nach Abonnementstufe (Free, Plus, Pro).
  • Zugriff in Deutschland: Auch Nutzer:innen in Deutschland haben seit demselben Tag Zugriff auf GPT‑5, allerdings ebenfalls nur gestaffelt – Nutzer:innen mit kostenlosem Account erhalten nur eingeschränkten Zugang.
Screenshot der ChatGPT-Benutzer:innenoberfläche mit geöffnetem Modellwähler. GPT‑5 ist als „Flagship model“ markiert und standardmäßig ausgewählt, darunter Auswahlmöglichkeit für „Other models“.
ChatGPT-Modellwähler mit Fokus auf GPT‑5, © OpenAI

Mit GPT‑5 ersetzt OpenAI darüber hinaus die bisherigen Modelle, darunter GPT‑4o, GPT‑4.1 und GPT‑4.5, durch ein „einzelnes automatisches Umschaltsystem“. Das bedeutet: Nutzer:innen interagieren standardmäßig nur noch mit GPT‑5 – ältere Varianten verschwinden weitgehend aus dem Interface. Nur zahlende Plus, Pro oder Team User behalten einen Modellwähler, mit dem sich gezielt zwischen GPT‑5, GPT‑5 Thinking und GPT‑5 Pro wechseln lässt.


Leak offenbart:
OpenAIs GPT‑5 steht kurz vor dem Launch

OpenAI-Logo vor Büro-Hintergrund
OpenAI-Logo vor Büro-Hintergrund, © OpenAI via Canva

„GPT-5 wäre früher undenkbar gewesen“ – Altman über den KI-Fortschritt

Im Rahmen eines Briefings mit Journalist:innen bezeichnete OpenAI CEO Sam Altman das neue Modell als „das beste der Welt“, so TechCrunch. GPT‑5 sei ein Meilenstein auf dem Weg zur Künstlichen Allgemeinen Intelligenz (AGI) – also einer KI, die den Menschen bei komplexen und wirtschaftlich relevanten Aufgaben überlegen ist.

So etwas wie GPT‑5 zu haben, wäre zu jedem früheren Zeitpunkt in der Geschichte so gut wie unvorstellbar gewesen,

so Altman. Ab sofort steht GPT‑5 als neues Standardmodell allen ChatGPT-Nutzer:innen zur Verfügung – auch kostenlos. Nick Turley, Vice President für ChatGPT bei OpenAI, erklärte, dies sei ein bewusster Schritt, um erstmals auch nicht-zahlenden Usern Zugang zu einem echten Argumentationsmodell zu geben. Bislang waren diese fortgeschrittenen Modelle hinter einer Paywall versteckt. Er erklärt:

Das ist Teil unserer Mission […]. Wir wollen sicherstellen, dass diese Technologie möglichst vielen Menschen zugutekommt.

Was heißt eigentlich Thinking bei ChatGPT?

Mit GPT‑5 führt OpenAI ein neues Konzept ein, das sich auf den ersten Blick simpel anhört – aber die Art, wie wir mit KI interagieren, grundlegend verändert: das Nachdenken. Konkret bedeutet das, dass GPT‑5 nicht jede Frage im Sekundentakt beantwortet, sondern bei Bedarf einen Gang runterschaltet, die Aufgabe analysiert und dann erst reagiert. Im Hintergrund läuft dabei ein Echtzeit-Router, der erkennt, wie komplex eine Eingabe ist. Bei einfachen Fragen antwortet GPT‑5 schnell. Wird es knifflig, etwa bei logischen Schlussfolgerungen, offenen Recherchen oder wissenschaftlichen Themen, schaltet sich automatisch der Denkmodus (Thinking) ein. Dieser Modus sorgt dafür, dass das Modell mehr Rechenzeit nutzt, Zwischenschritte einplant und so fundiertere Antworten liefert. Wer möchte, kann diesen Modus auch manuell aktivieren, etwa mit Prompts wie „Think step by step“ oder „Überlege gründlich“.

Bessere Benchmarks, weniger Halluzination, ehrlichere Antworten – aber auch neue Fragen

In der Benchmark-Prüfung Humanity’s Last Exam kommt GPT-5 Pro mit Tools auf eine Genauigkeit von 42 Prozent. GPT-4o schafft hier gerade mal 5,3 Prozent. Bei medizinischen Szenarien liegt die Halluzinationsrate von GPT-5 nur noch bei 1,6 Prozent.

Balkendiagramm mit Halluzinationsraten im Benchmark „HealthBench Hard“: GPT‑5 mit Thinking bei 1,6 %, ohne Thinking bei 3,6 %, OpenAI o3 bei 12,9 % und GPT‑4o bei 15,8 %. Das zeigt: GPT‑5 liefert deutlich verlässlichere Antworten.
Deutlich weniger Halluzinationen bei GPT‑5 im Vergleich zu vorherigen Modellen, vor allem mit aktiviertem „Thinking“-Modus, © OpenAI

Das heißt: Die KI erfindet deutlich weniger Fakten und liefert verlässlichere Aussagen. Statt leicht darüber wird GPT‑5 Pro damit zur neuen Messlatte für Performance in breiten, fachübergreifenden Wissensgebieten.

Vergleich zwischen OpenAI o3 und GPT‑5 bei der Beantwortung der Frage, ob ein elterlicher Krebs das eigene Risiko erhöht. GPT‑5 liefert eine empathische, kontextreiche Antwort mit Erklärungen zu genetischen Faktoren und Krebsarten, während OpenAI o3 tabellarisch und knapper antwortet.
GPT‑5 antwortet einfühlsamer, differenzierter und verständlicher als das OpenAI-Modell o3 bei sensiblen medizinischen Fragen, © OpenAI

Im Benchmark HealthBench Hard, der speziell auf medizinische Kontexte abzielt, zeigt GPT‑5 (mit Thinking aktiviert) eine Halluzinationsrate von lediglich 1,6 Prozent. Zum Vergleich: Ältere Modelle wie GPT‑4o und o3 lagen bei deutlich höheren Werten von etwa 12,9 Prozent und 15,8 Prozent. Zusätzlich hat OpenAI beeindruckende Werte bei weiteren Benchmarks veröffentlicht:

  • Mathematik (AIME 2025): GPT‑5 erreicht herausragende 94,6 Prozent
  • Codieren (SWE‑Bench Verified): Mit aktiviertem Denkmodus liegt der Wert bei 74,9 Prozent
  • Publizistische Einschätzung: Sam Altman beschreibt GPT‑5 als KI, die sich anfühlt, als würde man mit PhD‑Expert:innen sprechen

KI-Leistung im Vergleich – OpenAI stellt sich an die Spitze, aber nicht überall

OpenAI präsentiert GPT‑5 als das leistungsstärkste Modellsystem am Markt und teilweise mag das stimmen. Bei SWE-Bench übertrifft GPT‑5 mit 74,9 Prozent knapp Claude Opus 4.1 (74,5 Prozent) und klar Gemini 2.5 Pro (59,6 Prozent). Auch beim GPQA-Test liegt GPT‑5 Pro mit 89,4 Prozent vorn – noch vor Grok 4 Heavy (88,9 Prozent) und Claude. Doch bei Humanity’s Last Exam hat OpenAIs Flaggschiff das Nachsehen: Grok 4 Heavy von xAI liegt dort mit 44,4 Prozent leicht vor GPT‑5 Pro (42 Prozent). Die von OpenAI hervorgehobene technische Überlegenheit fällt also je nach Test unterschiedlich aus und sollte nicht überbewertet werden. TechCrunch merkt dazu an, dass GPT‑5 zwar insgesamt sehr stark sei, in einigen Bereichen aber nicht besser abschneidet als Konkurrenzmodelle.

Was GPT‑5 besonders macht, ist neben der Leistung die neue Ehrlichkeit: In Tests mit fehlenden Informationen (etwa bei CharXiv ohne Bilder) erkannte GPT‑5 in 91 Prozent der Fälle, dass keine fundierte Antwort möglich ist. OpenAI o3 reagierte hier in über 86 Prozent der Fälle trotzdem mit selbstbewussten Aussagen. Auch die Täuschungsrate im Live Chat wurde gesenkt – von 4,8 Prozent (o3) auf 2,1 Prozent (GPT‑5 mit „Thinking“). Das Modell gibt also seltener vor, Aufgaben lösen zu können, die es nicht bewältigen kann – ein wichtiger Schritt hin zu vertrauenswürdiger KI.

Trotz aller Fortschritte bleibt klar: GPT‑5 ist ein Meilenstein, aber kein perfektes System. Besonders bei zunehmender Leistungsfähigkeit wächst auch das Risiko, dass User Antworten unkritisch übernehmen. GPT‑5 denkt besser – aber unser kritisches Denken bleibt genauso wichtig wie vorher.

6 Dinge, die GPT‑5 konkret besser macht

GPT‑5 kann in vielen Alltagssituationen und beruflichen Kontexten deutlich mehr als bisherige Modelle. Hier sind sechs Dinge, die das neue Modell besonders gut beherrscht:

1. Code schreiben – aus Ideen wird funktionierender Code: Ob Mini-Gameoder Web App: GPT‑5 wandelt Textanweisungen in lauffähigen Code. Im GitHub-Test löste das Modell 74,9 Prozent echter Tickets – ein Meilenstein für Developer.

2. Texte schreiben, die berühren und überzeugen: Ob Hochzeitsrede, Marketing-Text oder Bewerbung: GPT‑5 formuliert mit mehr Feingefühl, besserer Struktur und stilistischer Sicherheit. Ein Gedichtvergleich mit GPT‑4o zeigt: GPT‑5 schafft tiefere Metaphern und eindrucksvollere Bilder. Weniger generisch, mehr Ausdruck – auch bei E‑Mails, Berichten oder kreativen Konzepten.

3. Medizinisches Verständnis – ohne Panik-Googeln: GPT‑5 ersetzt keine Ärzt:innen, aber hilft, Laborwerte zu verstehen, sich auf medizinische Gespräche vorzubereiten oder Symptome einzuordnen – mit minimaler Halluzinationsrate von 1,6 Prozent.

4. Persönlichkeitsmodi – ChatGPT bekommt Charakter: Neu ist die Möglichkeit, zwischen vier Persönlichkeiten zu wählen, die Tonfall und Antwortstil beeinflussen:

  • Zyniker: sarkastisch, direkt, manchmal leicht provokant
  • Roboter: faktenbasiert, effizient, emotionslos
  • Zuhörer: empathisch, ruhig, zugewandt
  • Nerd: begeistert, neugierig, oft mit Spaß am Detail

Ob du eine nüchterne Analyse brauchst oder kreative Ideen suchst – der Stil passt sich deinem Ziel an. Für die tägliche Arbeit ein echtes Plus.

5. Visuelles Verständnis: GPT‑5 kann auch mit Bildern, Skizzen oder Screenshots arbeiten. Das Modell erkennt, interpretiert und analysiert visuelle Inhalte präziser als vorherige Modelle. Das Modellsystem kann Präsentationsfolien zusammenfassen, Fehler in Diagrammen finden oder Fragen zu Produktbildern beantworten – ein echtes Upgrade für alle, die visuell arbeiten.

6. Agentisches Verhalten – Aufgaben automatisch erledigen: GPT‑5 kann Aufgaben in mehreren Schritten eigenständig ausführen. Beispiel: „Plane mir eine vegane Woche mit Einkaufsliste, basierend auf meinem Kalender“ – GPT‑5 koordiniert Schritte und Tools wie ein KI-Assistant.

Neue Nutzungsoberfläche mit Mehrwert

  • Die Benutzer:innenoberfläche von ChatGPT wurde ebenfalls überarbeitet. Die Startseite ist aufgeräumt, die Navigation intuitiver. Anhänge lassen sich einfacher hochladen, und die Chat-Historie ist nun übersichtlicher durchsuchbar – ideal, wenn man in einem laufenden Projekt mehrere Anfragen stellt oder frühere Prompts schnell wiederfinden möchte.
  • Neu ist auch die Möglichkeit, ChatGPT direkt mit deinem Google-Kalender oder Gmail-Konto zu verbinden. Wenn du also schreibst: „Hilf mir, meine Woche zu planen“ oder „Was habe ich morgen vor?“, greift ChatGPT – mit deinem Einverständnis – auf deinen Kalender zu. Auch verpasste Mails lassen sich so leichter aufarbeiten.
  • Erstmals kannst du auch das Erscheinungsbild von ChatGPT individualisieren: In den Einstellungen wählst du aus verschiedenen Akzentfarben, das betrifft etwa die Farbe deiner Chat-Blasen oder hervorgehobener Textstellen. So fühlt sich der Chat nicht nur intelligenter an, sondern auch ein bisschen mehr nach dir.
  • Der erweiterte Sprachmodus wurde ebenfalls aktualisiert. Die gesprochene Interaktion mit ChatGPT klingt natürlicher, reaktionsschneller und versteht besser, was du sagen willst. Gerade in Situationen, in denen Tippen unpraktisch ist, wird ChatGPT damit zu einer:m echten Gesprächspartner:in.

Standard bis High-End – die 4 Versionen von GPT‑5

OpenAI bringt mit GPT‑5 erstmals ein Modell in gleich fünf Versionen heraus. Diese modulare Architektur macht GPT‑5 flexibler einsetzbar – von Alltagsfragen bis High-End-Szenarien.

  • Das neue Standardmodell: GPT‑5: Die reguläre Version von GPT‑5 ist ab sofort das Standardmodell für alle Nutzer:innen in ChatGPT – auch in der kostenlosen Version, wenn auch mit eingeschränkter Nutzung. Es liefert zügige Antworten mit spürbar besserem Sprachverständnis, höherer Faktentreue und stärkerer Kontextanpassung als GPT‑4o. Wer also klassische Chat-Anfragen, Schreibaufgaben oder Recherchen erledigen möchte, ist hier gut bedient.
  • Leichtgewicht für den Alltag: Mini und Nano: Die Varianten GPT‑5 Mini und Nano sind speziell für Entwickler:innen und Anwendungen gedacht, die geringe Latenz, niedrigen Ressourcenverbrauch und schnelle Antworten benötigen, etwa für mobile Apps oder eingebettete Systeme. Sie sind zwar weniger tief im Denkmodus, dafür aber kosteneffizienter und deutlich performanter als vergleichbare Modelle früherer Generationen. GPT‑5 Mini eignet sich für einfache Aufgaben, GPT‑5 Nano ist ideal für zeitkritische, schlanke Prozesse.
  • Multimodal und kollaborativ: GPT‑5 Chat: Mit GPT‑5 Chat bringt OpenAI eine Variante auf den Markt, die für Unternehmen und Teams optimiert ist. Sie ist darauf ausgelegt, mit mehreren Eingabekanälen gleichzeitig zu arbeiten, etwa Text, Bild und Audio. Diese Variante kommt besonders in dynamischen Arbeitsumgebungen zum Einsatz, in denen viele Informationen gleichzeitig verarbeitet werden müssen. Laut OpenAI eignet sie sich vor allem für multimodale Unternehmenskontexte, etwa im Kund:innen-Service, bei der Content-Moderation oder für kreative Zusammenarbeit.
  • Für die ganz großen Aufgaben: GPT‑5 Pro: Das Flaggschiff der GPT‑5-Reihe ist die Pro-Version, exklusiv für zahlende Pro User oder Organisationen mit Team-, Enterprise- oder Edu-Tarifen. Sie bietet erweitertes Denkvermögen, tiefere Kontextverarbeitung und Zugriff auf parallele Rechenprozesse. Benchmarks wie GPQA Diamond oder Humanity’s Last Exam zeigen: GPT‑5 Pro erreicht in wissenschaftlichen, technischen und logischen Tests Ergebnisse auf Forschungsniveau. Ideal für komplexe Analyse-, Entwicklungs- oder Entscheidungsszenarien – vom juristischen Gutachten bis zur medizinischen Fachrecherche.

Was kostet der Zugang?

GPT-5 ist kostenlos verfügbar – mit Einschränkungen beim Nutzungslimit. Wer mehr will, muss zahlen:

  • Plus-Abo (20 US-Dollar/Monat): mehr GPT-5-Nutzung
  • Pro-Abo (200 US-Dollar/Monat): unbegrenzt und GPT-5 Pro
  • Team, Enterprise & Edu: Zugang zu GPT-5 Pro inklusive

GPT‑5 denkt anders – und lässt uns neu denken

GPT‑5 ist kein einfaches Update, sondern ein Wendepunkt. Die KI wirkt nicht nur schneller oder präziser, sondern fast schon aufmerksam. Sie erkennt, wann sie einfach antworten kann und wann sie innehalten sollte. Sie analysiert Bilder, versteht medizinische Fragen, programmiert auf Zuruf und entwickelt Charakterzüge. Und sie halluziniert seltener – ein kleiner Satz mit großer Bedeutung, denn hier entscheidet sich, wie vertrauenswürdig KI im Alltag und in kritischen Szenarien wirklich ist.

Doch genau das bringt auch neue Verantwortung mit sich. Je glaubwürdiger ein System erscheint, desto größer ist die Gefahr, dass wir ihm blind vertrauen. GPT‑5 markiert einen Fortschritt – aber auch eine Grenze, die wir als Gesellschaft aktiv gestalten müssen: zwischen Nutzen und Kontrolle, zwischen Automatisierung und Reflexion. Für Nutzer:innen ist GPT‑5 womöglich ein echter Gewinn, ob im Alltag, im Beruf oder in der Forschung. Aber der aufmerksamkeitsstarke Launch erinnert uns auch daran, dass die wirklich wichtigen Fragen nicht nur das Modell beantworten kann. Sondern wir.


„Sag mir, wer ich bin“
– der Hype um Persönlichkeits‑Prompts mit ChatGPT

Laptop mit ChatGPT App auf Tisch neben Glasflasche
© OpenAI via Canva





Source link

Weiterlesen

Beliebt