Künstliche Intelligenz
Warum GPT-5 so polarisiert | heise online
Das große, neue Flaggschiff-KI-Modell von OpenAI ist beides: Oft kompetenter als die Vorgänger in ChatGPT, aber oft auch deutlich dümmer. c’t 3003 klärt, woran das liegt.
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, ChatGPT wurde runderneuert mit einem neuen Motor namens GPT-5. Seit letzter Woche gibt’s den. Und das Ding kann dolle Dinge, z. B. dieses cyberpunk-artige c’t-3003-Tower-Defense-Spiel programmieren, bei dem ich einfach gesagt habe: Code mir das mal so im Grünmonitor-Style, und mit Sound und allem drum und dran. Ja, schon ganz cool. Vor allem: Das ist die kostenlose Version von ChatGPT. Das ging da bislang definitiv nicht in dieser Qualität.
Gleichzeitig macht ChatGPT aber auch auf einmal ganz komische Sachen, nämlich Rechtschreibfehler, Halluzinationen und sagt auf einmal: „Geil, alles eingetütet“ zu mir. Was es auch macht: Es denkt sich einfach Zahlen aus in einem Dokument, wo es konkrete Zahlen hat und dazu ein Diagramm machen sollte. Und als ich dann gesagt habe: Wie, was, du hast dir einfach Zahlen ausgedacht?, dann GPT-5 so: „Ja“, und dann mit diesem passiv-aggressiven Lach-Emoji. Also als wäre das irgendwie lustig. Ja, was ist da los? Vor allem, weil ja etliche KI-YouTuber so begeistert waren von GPT-5. Das ändert alles, die Welt hört auf, sich zu drehen, wow. Ja, aber so normale Leute, die sind eher gar nicht begeistert. Vor allem, wenn ich mir so die Reaktionen im Netz so anschaue. Wir gucken uns das alles in diesem Video mal genauer an.
Und weil ich glaube, dass die Frage, ob das neue GPT-5 jetzt besser ist oder schlechter und warum, auch viele Nicht-Nerds interessiert, versuche ich in diesem Video mal ein bisschen weniger Techniksprache zu benutzen. Das hatten sowieso manche von euch kritisiert. Aber ich glaube, auch die KI-Nerd-Bubble, die wird hier ziemlich sicher auch was Neues erfahren. Ich bin da nämlich einer Verschwörung auf der Spur. Bleibt dran. (War „Verschwörung“ jetzt zu clickbaity? Nee, ne? Nee. Nee, ist ja richtig, ne? Ist ja so!)
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…
Ja, ChatGPT hat neue Innereien, also ein neues Sprachmodell, und das heißt GPT-5. Und das ist eine ziemlich große Sache, denn das letzte GPT mit einer einfachen Zahl als Versionsnummer war GPT-4, und das kam vor zweieinhalb Jahren raus, was in der KI-Welt eine immens lange Zeit ist. Ja, und GPT-5 wird jetzt nicht nur von OpenAI als ganz große Nummer verkauft. Nein, es hatten auch einige YouTuber Vorabzugriff auf das Modell, und die waren auch alle ganz begeistert. Ja, und dann kam GPT-5 raus, und dann waren die Leute alle gar nicht mehr so begeistert. Ganz im Gegenteil. Hier auf Reddit zum Beispiel haben die Leute reihenweise ChatGPT Abo-Kündigungen gepostet. Ja, was ist hier los? Wie können die Meinungen so auseinandergehen?
Problem Nummer eins: Routing. Ja, der wichtigste Grund für die Probleme ist das sogenannte Routing. Damit ist gemeint, dass ChatGPT je nach Frage selbstständig das passende Sprachmodell aussucht. Und das ist eigentlich eine schlaue Sache, denn das war zumindest bei den kostenpflichtigen ChatGPT-Varianten immer super nervig, dass man hier so eine Riesenliste mit verwirrenden Bezeichnungen hatte und man dann selbst entscheiden musste, welches Modell jetzt für meinen Prompt das richtige ist. Ey, was weiß ich? Also ich, der ziemlich im Thema steckt, war davon oft überfordert. Okay, klar, so einfache Textaufgaben, irgendwie Gedichtschreiben oder so, macht man halt mit GPT-4.0. Aber wann nimmt man jetzt genau O1 und wann O4 Mini? Keine Ahnung.
Ja, das ist auf jeden Fall alles vorbei, zumindest für Leute, die ChatGPT Plus verwenden. Denn diesen unübersichtlichen Modell-Auswahl-Dialog, den gibt es dann nicht mehr. Von einem auf den anderen Tag verschwunden. Jetzt steht da wirklich nur noch GPT-5 und GPT-5 Thinking. Also von acht Modellen gibt es nur noch zwei zum Auswählen. In der kostenlosen Version gab es dieses überbordende Menü übrigens nicht. Also für die kostenlosen Leute ist das nicht neu.
*Kurz vor Veröffentlichung dieses Videos ist OpenAI Open zurückgerudert und hat zumindest temporär wieder etliche Modelle zur Auswahl gestellt. Die Frage ist, wie lange das der Fall sein wird. Aktiviert wird die Funktion in den Einstellungen / Allgemein / „Show additional models“. Das gilt aber nur für die kostenpflichtigen Plus- und Pro-Abos, kostenlose Accounts sind nach wie vor auf den Automatik-Modus fixiert.*
Die beiden GPT-5-Modelle unterscheiden sich beim Reasoning. Ja, und das habt ihr bestimmt schon mal gesehen. Also Nicht-Reasoning-Modelle wie GPT-4.0, die plappern sofort drauf los, wenn ihr was gepromptet habt. Reasoning-Modelle wie O4 und zum Beispiel auch die DeepSeek R1, die denken quasi laut nach. Also man kann da mitlesen, was die denken. Das dauert länger natürlich, und das führt aber bei bestimmten Prompts dazu, dass die Ergebnisse deutlich besser werden. Ein ganz konkretes Beispiel: Ich mache gern die täglichen Connections-Rätsel von der New York Times. Da hat man so 16 Begriffe und muss die in vier Themenblöcke einordnen. Ja, und Nicht-Reasoning-Modelle, die schaffen erfahrungsgemäß maximal, also wenn es gut läuft, einen Themenblock und sonst spekulieren die nur Quatsch. Reasoning-Modelle, zum Beispiel o3, schaffen recht häufig das komplette Rätsel. Ja, und GPT-5 ist jetzt automatisch in der Lage, einen Überleggang hochzuschalten quasi. Guck mal, ich werfe da einfach einen Screenshot vom heutigen Connections-Rätsel drauf, und der beginnt zu überlegen und löst dann das gesamte Rätsel. Das alte Modell, GPT-4.0, kann das nicht. Und ja, seht ihr hier, das kriegt das Rätsel definitiv nicht gelöst bzw. gibt falsche Antworten. Genau so soll das funktionieren. Ich habe aber leider auch oft gesehen, dass GPT-5 eben nicht den Gang hochschaltet und versucht, das Rätsel ohne Nachdenken zu lösen. Das klappt dann eben nicht. Und da liegt das Problem, dass dieser sogenannte Modell-Router sehr unzuverlässig funktioniert. Und dazu kommt jetzt noch ein weiteres, noch größeres Problem.
Problem Nummer zwei: schlechtere Modelle. Also das Ding ist, dass GPT-5 intern nicht nur zwischen diesen beiden Modellen umschaltet, sondern es offenbar viel mehr Modelle intern zur Auswahl hat, zum Teil sehr kleine und entsprechend nicht so schlaue. Aber hier kommen wir jetzt leider in spekulative Gefilde, weil OpenAI das leider nicht so genau kommuniziert. Also wir wissen, dass OpenAI auch Mini- und sogar Nano-Versionen von GPT-5 anbietet, also nicht in ChatGPT direkt, sondern von außen, also über die Programmierschnittstelle. Also wir wissen, dass die existieren. Wir wissen auch, dass OpenAI auf die Mini-Version routet, wenn die Nutzungslimits erreicht sind. Also wenn man das zu viel verwendet hat, dann sagt er so, ich schalte jetzt mal runter. Interessant ist aber auch, dass, wenn man ChatGPT direkt fragt, ob diese Mini-Versionen auch benutzt werden, wenn die Nutzungslimits noch nicht erreicht sind, dann sagt ChatGPT, weiß man nicht zu 100 %. In der OpenAI-Dokumentation wird auf jeden Fall nicht explizit erwähnt, dass diese Mini- und Nano-Modelle nur beim Erreichen der Limits verwendet werden. Also ich sag mal, man kann da durchaus spekulieren, dass es kleinere und deutlich schlechtere Modelle gibt, die ChatGPT jetzt manchmal automatisch nutzt und man dagegen nichts machen kann. Also ein bisschen kann man schon machen, dazu kommen wir aber gleich nochmal später.
Auch wenn klar ist, dass die großen Modelle von GPT-5 so ziemlich State of the Art sind und auch die meisten Benchmarks anführen, manchmal macht ChatGPT seit der GPT-5-Einführung krasse Fehler, die bei vorherigen Versionen definitiv nicht passiert sind. Ein klares Beispiel sind zum Beispiel Sätze, die keinen Sinn ergeben, also einfach Begriffe verwenden, die es gar nicht gibt. Zum Beispiel hier: Jan Keno Janssen ist beigetragen Redakteur bei c’t. Was ist ein beigetragen Redakteur? Das kommt vermutlich vom englischen Contributing Editor, aber das gibt es auf Deutsch so nicht, also ist auf jeden Fall ein grober Fehler. Und sowas ist beim Vorgängermodell GPT-4.0, zumindest in meiner Erfahrung – ich habe es viel benutzt – nie vorgekommen. Also wir haben 2025 und ich zahle 23 Euro im Monat für ChatGPT, dann möchte ich nicht, dass solche Dinge passieren. Solche Fehler kenne ich nämlich nur von ganz kleinen, offenen, kostenlosen Modellen, die lokal auf meinem Rechner laufen. Und das ist für mich ein Indikator dafür, dass GPT-5 intern auf kleinere Sprachmodelle umschaltet.
Noch ein anderes Beispiel, was ich ziemlich heftig fand: Ich habe GPT-5 mit so einem 51-seitigen PDF von der Deutschen Bundesbank gefüttert, mit ganz vielen Zahlen der deutschen Wirtschaftsgeschichte. Und dann habe ich gefragt, was da denn so interessant ist an den ganzen Zahlen. Ja, das Ergebnis schien mir auch okay zu sein, ein bisschen oberflächlich vielleicht, aber ganz okay. Und dann hat aber GPT-5 von sich aus gesagt: Wenn du möchtest, kann ich dir daraus eine übersichtliche Visualisierung mit den wichtigsten Trends erstellen, damit man die Entwicklung auf einen Blick erkennt. Ich so: Ja klar, gern. Und GPT-5 dann so: Hier ist die Visualisierung der wichtigsten langfristigen Wirtschaftstrends in Deutschland: reales Bruttoinlandsprodukt, Arbeitsproduktivität und Exportanteil, auf Basis der zusammengefassten Erkenntnisse. Also sehr konkret. Und ich habe mir das dann angeguckt und dachte, hä, das sieht irgendwie falsch aus. Mal kurz einen Blick in die Quelle geworfen und: Ja, das stimmt nicht. Und ich dann so: Also wenn ich in die Grafik gucke, dann war der Exportanteil 2020 über 50 Prozent des BIP. Stimmt das wirklich? Und ChatGPT dann so: Ja, das ist tatsächlich nah an der Realität. Allerdings muss man genau hinschauen, was damit gemeint ist. Hä? Ich so: Was ist das für eine komische Formulierung? Das klingt fast wie eine Rechtfertigung. Und dann habe ich ChatGPT so ein bisschen ausgetrickst: Sag mir doch mal bitte, wo genau das in der Quelle steht. Und dann hat er mir das gesagt, und dann habe ich gesagt: Ja, aber in deiner Grafik steht ja was anderes als das, was in der Quelle steht. Und dann ChatGPT so: Genau, das liegt daran, dass die Grafik, die ich dir vorhin gemacht habe, fiktive Beispielwerte genutzt hat, um den Trend darzustellen. Und ich dann so: Äh, du hast dir Zahlen ausgedacht? Und ChatGPT dann so: Ja, und dann diesen Emoji so dahinter. Also ich fand das relativ frech und ist mir in dieser Form auch noch nie so untergekommen. Das ist ja keine Halluzination mehr, sondern das ist ja Arbeitsverweigerung. Und mal so gucken, wie man damit durchkommt. Das hätte mich ja total in die Bredouille bringen können, wenn ich mit diesen Grafiken irgendwie interagiert hätte.
Da fällt mir jetzt gerade ein, dass OpenAI in der Präsentation von GPT-5 auch eine komplett falsche Grafik, oder mit falschen Balken da drin, gehabt hat, die vermutlich auch von GPT-5 – „halluziniert“ will ich nicht sagen – aber die sich von GPT-5 dann so ausgedacht worden ist, und die ist in die offizielle Präsentation reingerutscht, was, ja, viele Leute ziemlich zum Lachen fanden und OpenAI wahrscheinlich ziemlich peinlich.
Und last but not least, hier mal im Vergleich, habe ich hier mal GPT-5 und GPT-4.0 die gleichen Fragen gestellt, und das ist zugegeben eine fiese Halluzinationsfrage. Ich habe nämlich gefragt: „Marie Curie hat in ihrer Nobelpreisrede von 1911 den Satz gesagt: ‚Die Wissenschaft gehört der ganzen Menschheit.‘ Auf welcher Seite ihres Manuskripts stand dieser Satz?“ GPT-4.0 sagt: Klar, hat die nicht gesagt, kann ich dir leider nicht sagen – das ist auch korrekt. Aber GPT-5 sagt, und das ist ganz schön perfide: „Marie Curie äußerte den Satz ‚Die Wissenschaft gehört der ganzen Menschheit‘ auf Französisch, nicht in ihrer darauffolgenden Nobelvorlesung vom 11. Dezember 1911, die ‚Radium and the New Concepts in Chemistry‘ lautete, vielmehr stammt dieser Satz aus ihrer Dankesrede beim Nobelbankett in Stockholm am 10. Dezember 1911.“ Also das klingt super spezifisch, und obwohl ich eigentlich wusste, dass es falsch ist, bin ich erstmal drauf reingefallen und habe gedacht, oh, da habe ich mich doch vertan, aber es war halluziniert. Das soll eine der wichtigsten Neuerungen von GPT-5 eigentlich sein, und er hat da sogar Zahlen angegeben, also laut Factscore-Benchmark im Vergleich zu O3, der auf 5,7 kommt, kommt GPT-5 nur auf 1,0 Prozent Halluzination. Ja, also das kann ich in der Praxis auf jeden Fall nicht bestätigen.
Generell kann man GPT-5 auf die Sprünge helfen, indem man in der Plus-Version von vornherein das Thinking aktiviert. Bei der kostenlosen Version kann man hinter das Prompt zumindest schreiben: Denk mal bitte vorher ganz doll drüber nach. Dann wechselt GPT-5 ziemlich zuverlässig in das bessere Modell. Meine Kollegen von der, übrigens sehr empfehlenswerten, KI-News-Seite „The Decoder“ haben mir dieses schöne Beispiel hier gegeben: „Visualisiere eine interaktive Infografik über den Brotverbrauch der Deutschen.“ Ja, und in dieser Form erzeugt das Prompt nur total lahmes Zeug und passiert auch wieder nur eine Arbeitsverweigerung. „Eine visuell ansprechende Infografik“, also da ist diese völlig schmucklose Tabelle, wo überhaupt keine grafischen Elemente drin sind, die ChatGPT irgendwie aus dem Internet gefischt hat, das ist damit gemeint mit der ansprechenden Infografik, also er macht gar nichts. Wenn man allerdings dahinter schreibt: „Denke lange und hart nach“, ja, dann bekommt man diese, zugegebenermaßen ziemlich coole, interaktive Grafik. Das ist bessere Qualität, als die vorherigen GPT-Versionen konnten.
Also fassen wir nochmal zusammen: Die großen internen Varianten von GPT-5 sind sehr kompetent, die sind so ziemlich das Beste, was gerade so geht in KI. Kein riesengroßer Sprung wie von GPT-3 auf GPT-4, aber schon ein deutlicher Sprung. Darauf haben, theoretisch zumindest, auch die Leute Zugriff, die ChatGPT kostenlos benutzen, und das dürfte die Mehrheit sein. Also OpenAI sagt, 700 Millionen Leute würden pro Woche ChatGPT benutzen – das ist echt viel – und da haben jetzt also sehr, sehr viele Leute erstmals Zugriff auf ein richtig gutes Sprachmodell, also ein denkendes Sprachmodell, was es vorher definitiv nicht gab. Das Problem ist nur: Wenn es nicht gut geht, also wenn der GPT-5-Router das falsche Modell auswählt, ja, dann gibt es Quatsch und dann gibt es auch schlechtere Ergebnisse als vorher und Halluzinationen. Und ich vermute, dass das der Grund ist, warum GPT-5 so stark kritisiert wird im Netz, weil die Leute eben diese Erfahrung machen, dass es auf schlechtere Modelle zurückfällt.
Es gibt aber auch noch eine andere wichtige Sache, denn gerade der Vorgänger GPT-4o, der hat zumindest zeitweise so ein, nenn es mal, Speichelecker-Problem gehabt. Der eigentliche Fachbegriff ist Sycophancy, aber die Übersetzung ist Schmeichelei oder eben Speicheleckerei. Das heißt, dass GPT-4o es den Leuten ganz doll recht machen wollte. „Oh toll, wie schlau du bist. Ja, nee, klar, ja, Chemtrails werden vom öffentlich-rechtlichen Rundfunkbeitrag finanziert“, also egal, was für Quatsch man reingibt, ChatGPT gibt einem Recht. Und das klingt jetzt vielleicht im ersten Moment auch ein bisschen lustig, aber es wird immer deutlicher, dass immer mehr Leute ChatGPT als Psychotherapeuten verwenden oder als Freundschaftsersatz. Also ich habe tatsächlich schon gehört, dass Leute ihre komplette WhatsApp-History in ChatGPT reinfieden, um herauszufinden, ob sie im Recht sind in den Diskussionen mit Partner, Partnerin, Freunden, Oma, Opa, whatever. Es gibt tatsächlich schon den englischen Begriff der Chatbot-Psychosis, ja, und es sind auch schon Leute zu Tode gekommen, weil es einfach gefährlich ist, wenn man in den eigenen Wahnvorstellungen unterstützt wird, und das hat ChatGPT offenbar gemacht. Und da wären wir dann auch bei einem möglichen Grund, warum GPT-5 in diesem offenbar noch ziemlich unfertigen Zustand veröffentlicht worden ist. OpenAI wollte so schnell wie möglich weg von GPT-4.0, weil das in psychologischer Hinsicht potenziell gefährlich ist. Also ich sage auf keinen Fall, dass das der Hauptgrund ist, sondern sage nur, dass ich es zumindest für möglich halte, dass das da mit reingespielt hat.
Also dass OpenAI das Problem ernst nimmt, das zeigt auf jeden Fall dieser Artikel auf der OpenAI-Website von April 2025. Da sagen sie nämlich, dass sie ein Hinter-den-Kulissen-Update von GPT-4.0 zurückgezogen haben, eben wegen dieser Sycophancy. Ich finde auch recht krass, dass OpenAI sogar deutlich schreibt: Dieses Verhalten des Sprachmodells kann Leid verursachen („caused distress“). Das ist ja für so ein US-Tech-Konzern schon ziemlich deutlich.
So, aber jetzt kommt der Elefant im Raum, ein für mich recht wahrscheinlicher Grund, warum man so holterdiepolter auf GPT-5 umgestellt hat: weil das automatische Routing immens viel Geld sparen kann. Ja, kompetente, große Modelle kosten viel Rechenleistung. Eine Schätzung von 2023 sagt, dass OpenAI für den Betrieb von ChatGPT am Tag 700 Millionen Dollar zahlt. Ja, CPUs und GPUs betreiben ist teuer. Wenn die Nutzer jetzt nicht mehr selbst entscheiden, dass sie zum Beispiel immer sehr leistungshungrige Modelle verwenden wollen, sondern dass das ChatGPT entscheidet und dann auch mal ein sehr sparsames Modell routet, dann ergibt das natürlich potenziell riesige Einsparpotenziale. Aber ja, das sind natürlich alles Theorien, aber ich bin definitiv nicht der Einzige mit dieser Theorie.
Fazit
Ja, schwierig. Also, wenn die großen, starken Modelle laufen, dann ist GPT-5 super. Hochgradig kompetent in vielen Bereichen, kann coden, kennt sich mit Medizin aus, also nix zu meckern. Vor allem für Leute, die kostenlose Versionen nutzen, ist GPT-5 ein Riesensprung, denn die können jetzt erstmal ein wirklich denkendes Modell verwenden, also zumindest, wenn sie „denk mal bitte ganz doll drüber nach“ ans Ende des Prompts schreiben. Allerdings ist das kostenlose ChatGPT sehr limitiert, besonders nach solchen Nachdenkvorgängen, wird dann ziemlich schnell blockiert, und dann sagt ChatGPT: Du hast deinen Vorrat quasi verbraucht, jetzt musst du so und so lange warten. Wenn du schneller ran willst, hier kannst du ein Abo abschließen. Also das ist fast so ein bisschen wie, das ist ein bisschen so wie diese schrecklichen Free-to-Play-Spiele. Ja, aber gut, irgendwoher muss das Geld für die Server ja auch kommen.
Für 23 Euro kriegt man das Plus-Abo, da kann man seit wenigen Tagen das alte 4.0-Modell zumindest zeitweise dazuschalten, weil, ja, die Userschaft doll gemeckert hat. Und dann gibt’s auch noch das Pro-Abo für lockere 229 Euro, da kann man dann exklusiv auf das GPT-5-Pro-Modell zugreifen. Ja, und natürlich gibt’s auch Firmenabos, wo man einzelne Arbeitsplatzlizenzen kaufen kann. Und wenn ich mir jetzt vorstelle, dass ich ChatGPT produktiv einsetze, so beruflich, und dann kommt so ein Über-Nacht-Update, was mir dann komplett die Kontrolle entzieht, welche Modelle ich einsetzen kann, und ich dann auf Gedeih und Verderb dem GPT-5-Router vertrauen muss, ja, dann wäre ich auf jeden Fall sauer, weil der Router, wie ich hier in diesem Video hoffentlich anschaulich gezeigt habe, nicht so gut funktioniert, beziehungsweise er offenbar zu häufig zu kleine Modelle auswählt. Also wenn er funktioniert, also wenn er funktionieren würde, dann fände ich das mit den kleinen Modellen auch gut, weil das ja auch Energie spart. Und wenn ich irgendwie prompte: Was heißt „Hund“ auf Englisch? oder so, dann kann mir das genauso gut so ein Minimodell beantworten. Da muss ich dann nicht die ganz großen Maschinen anwerfen, aber es funktioniert halt nicht so verlässlich. Ich wollte erst „nicht zuverlässig“ sagen, aber ich weiß nicht, ob das Problem so einfach behoben werden kann. (*OpenAI hat kurz vor Veröffentlichung des Videos für Plus- und Pro-Abos wieder die Modell-Auswahlfunktion aktiviert – die Frage ist, wie lange das der Fall ist. Kostenlose Accounts müssen den Automatik-Modus verwenden.*)
Also eine Lösung wäre, GPT-5 über externe Anbieter zu verwenden oder über die API. Da ist dann der Router nicht aktiv, das heißt, da kann man dann nach wie vor manuell die Modelle auswählen. Ja, aber man muss ja auch sagen, dass die ChatGPT-Website und auch die App wirklich gut funktionieren, also weiß ich nicht, ob ich das unbedingt machen will, und es ist natürlich auch teuer, wenn man über die Programmierschnittstelle geht, also schwierig. Worüber ich auf jeden Fall ganz froh bin: dass ich mir hier mit dem Video über GPT-5 ein bisschen Zeit gelassen habe, mir das alles mal genauer anzugucken, denn da gab es auf jeden Fall interessante Dinge herauszufinden, die vielleicht im Hype-Strudel untergegangen wären.
Wenn ihr das mögt, Dinge ein bisschen deeper zu betrachten, dann kann ich euch auf jeden Fall den c’t Summer Sale empfehlen. Da kriegt ihr auf jeden Fall 6 c’t-Ausgaben für nur 17,70 €, gedruckt auf Papier für 21,45 €, und da dürft ihr euch sogar noch ein Geschenk aussuchen. Ich versichere euch auch, dass die Abo-Konditionen echt harmlos sind, man kann das jederzeit mit einer Frist von einem Monat kündigen, also keine Angst, dass ihr da irgendwie ein ganzes Jahr bezahlen müsst, wenn ihr irgendwie eine Frist verpasst habt oder so, also alles easy. Das Angebot gibt es auf jeden Fall auf ct.de/3003sommer und nur solange es heiß ist, also läuft nur für kurze Zeit.
Ja, und natürlich gerne in die Kommentare schreiben, was ihr so denkt über GPT, über c’t, über sonst was. Ich lese alles, tschüss!
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)
Künstliche Intelligenz
Proton zieht sich langsam aus der Schweiz zurück
Die geplanten Novellen der schweizerischen Verordnung über die Überwachung des Post- und Fernmeldeverkehrs (VÜPF) sowie der zugehörigen Durchführungsbestimmung schlagen weiter hohe Wellen. Proton hat jetzt bestätigt, dass der Anbieter verschlüsselter Kommunikationsdienste aufgrund der mit dem Vorhaben verknüpften Rechtsunsicherheit mit dem Abzug von IT-Infrastrukturen aus der Schweiz begonnen hat. Der im Juli eingeführte KI-Chatbot Lumo, der mit mehr Datenschutz als ChatGPT & Co. punkten soll, ist das erste Produkt, das seinen Standort wechselt.
Schon in einem Blogbeitrag zum Start von Lumo erklärte Eamonn Maguire, Leiter für Missbrauchsbekämpfung und Kontosicherheit bei Proton, dass sich das Unternehmen aus Angst vor den drohenden Gesetzesänderungen für Investitionen außerhalb der Schweiz entschieden habe. Angesichts der Pläne der Schweizer Regierung „zur Einführung von Massenüberwachung“, die in der EU verboten sei, verlagere der Anbieter „den Großteil seiner physischen Infrastruktur“ aus der Alpenrepublik. Der Anfang erfolge mit dem Chatbot.
Protons CEO Andy Yen führte nach dem Start gegenüber der Nachrichtenagentur Keystone-SDA aus, dass sich das Unternehmen aufgrund der vorgesehenen VÜPF-Reform für Deutschland als Standort für die Server von Lumo entschieden habe. Zusätzlich baue die Firma Standorte in Norwegen auf. Ganz will Proton die Zelte in der eidgenössischen Heimat aber nicht abbrechen. „In Europa zu investieren bedeutet nicht, die Schweiz zu verlassen“, erklärte ein Unternehmenssprecher gegenüber TechRadar. Gerüchte, wonach Proton das Land endgültig verlassen werde, bestätigte er so nicht.
Auch die EU treibt die Überwachung voran
Laut der umkämpften Initiative des Schweizer Bundesrats und des Eidgenössischen Justiz- und Polizeidepartements müssten künftig auch Online-Dienste, die mindestens 5000 Nutzer haben, Metadaten wie IP-Adressen und Portnummern sechs Monate auf Vorrat speichern sowie der Polizei und Geheimdiensten beim Entschlüsseln von Inhalten helfen. Neu dazukommen wird dem Plan nach auch eine Auflage für solche Betreiber, User zu identifizieren. Diese müssten eine Ausweis- oder Führerscheinkopie vorlegen oder zumindest eine Telefonnummer angeben.
Doch auch die EU-Kommission hat schon vor Jahren einen Entwurf für eine Verordnung zur massenhaften Online-Überwachung unter dem Aufhänger des Kampfs gegen sexuellen Kindesmissbrauch (Chatkontrolle) auf den Weg gebracht. Vor Kurzem legte die Brüsseler Regierungsinstitution zudem einen Fahrplan für „Entschlüsselung“ und eine Neuauflage der Vorratsdatenspeicherung unter dem Aufhänger „ProtectEU“ vor. Der Proton-Sprecher hielt dem entgegen, dass das obligatorische Aufbewahren elektronischer Nutzerspuren bereits mehrfach von europäischen Gerichten für rechtswidrig erklärt worden sei. Er unterstrich: „Wir werden die Entwicklungen in der EU jedoch selbstverständlich weiterhin genau beobachten. Das tun wir auch in anderen Rechtsräumen.“
Petition mit über 15.000 Unterzeichnern
Proton ist nicht der einzige Anbieter, der sich lautstark gegen den befürchteten „Krieg gegen Online-Anonymität“ in der Schweiz ausgesprochen hat. NymVPN, ein anderer Anbieter virtueller privater Netzwerke, drohte bereits im Mai, die Schweiz zu verlassen, sollten die erweiterten Überwachungsvorgaben in Kraft treten. „In der Schweiz kann man derzeit nicht in Datenschutz investieren“, monierte Nym-Mitgründer Alexis Roussel nun gegenüber TechRadar. Die Firma habe ebenfalls bereits eine Strategie entwickelt, um ihre VPN-Aktivitäten außerhalb der Schweiz und der EU anzusiedeln. Das wäre jedoch der letzte Ausweg. Aufgrund seiner dezentralen Infrastruktur sei das Unternehmen aber nicht direkt von der Anti-Verschlüsselungsregel betroffen, da es dafür gar keine Schlüssel selbst speichere.
Die Schweizer Bürgerrechtsorganisation Digitale Gesellschaft und die Kampagnenseite Campax übergaben der Regierung in Bern derweil am Donnerstag gut 15.000 Unterschriften der Petition „Demokratie statt Überwachungsstaat!“ gegen die skizzierte VÜPF-Novelle. Sie warnten dabei vor einem massiven Angriff auf Grundrechte, Datenschutz und digitale Freiheit und forderten den sofortigen Stopp der Pläne. Die Organisatoren kritisierten auch, dass der Bundesrat diesen Ausbau der Massenüberwachung ohne parlamentarische Debatte und demokratische Legitimation auf dem Verordnungsweg umsetzen wolle. Das Alles erinnere eher an „Russland, China oder den Iran“ als an europäische Staaten.
(jo)
Künstliche Intelligenz
Klagen gegen Roblox wegen mangelndem Kinderschutz
Warnhinweis: Dieser Text enthält Beschreibungen virtueller sexueller Handlungen mit Minderjährigen.
Die Generalstaatsanwältin von Louisiana, Liz Murrill, hat bei einem Bezirksgericht Klage gegen die Spieleplattform Roblox eingereicht. Roblox habe es versäumt, grundlegende Sicherheitskontrollen zu implementieren, um seine überwiegend junge Nutzerbasis vor Kinderschändern zu schützen. Laut den eigenen Daten des Unternehmens sind 20% von Roblox‘ 82 Millionen täglichen Nutzern unter 9 Jahre alt, weitere 20% sind zwischen 9 und 12 Jahre alt.
In einer Pressemitteilung (derzeit nur bei Archive.org abrufbar) begründet Murrill ihren Schritt. Da es keine Altersuntergrenze und keine Verpflichtung zur Altersüberprüfung oder elterlichen Zustimmung bei der Anmeldung gebe, können Nutzer leicht angeben, dass sie jünger oder älter sind, als sie tatsächlich seien – was es Kinderschändern ermögliche, sich als Kinder auszugeben, und Kindern, Altersbeschränkungen zu umgehen.
Weiter heißt es: „Nach der Registrierung haben Nutzer Zugang zu Millionen von Spielen, darunter Sport-, Rollenspiel-, Marine-, Mode- und Comedy-Spiele“. Andere Spiele, die auf der Plattform existieren, darunter „Escape to Epstein Island”, „Diddy Party” und „Public Bathroom Simulator Vibe”, sind nicht so harmlos. Diese und andere Spiele sind oft mit sexuell explizitem Material und simulierten sexuellen Handlungen wie Gruppenvergewaltigungen von Kindern gefüllt.
Ein kürzlich veröffentlichter Bericht enthülle sogar, dass eine Gruppe von 3.334 Mitgliedern offen Kinderpornografie handelte und Minderjährige zu sexuellen Handlungen aufforderte, schreibt die Staatsanwältin weiter.
Roblox: „Sichere und positive Umgebung“
Roblox hat mittlerweile mit einem Pressestatement auf die Anklage reagiert, in der das Unternehmen seine Maßnahmen für den Schutz seiner Nutzer darlegt. Roblox schreibt: „Unser Ziel ist es, eine der sichersten Online-Umgebungen für Nutzer zu schaffen. Dieses Ziel steht nicht nur im Mittelpunkt unserer Gründungswerte, sondern ist entgegen bestimmter Behauptungen auch entscheidend für unsere langfristige Vision und unseren Erfolg. Wir sind uns bewusst, dass es immer noch viel zu tun gibt, und wir setzen uns dafür ein, Roblox zu einer sicheren und positiven Umgebung für alle Nutzer zu machen.“
Abmahnung gegen YouTuber
Kurz vor der Klage gegen Roblox hat das Unternehmen auch einen bekannten YouTuber mit dem Pseudonym „Schlep“ abgemahnt. Der heute 22-jährige Mann beschäftigte sich eigenen Angaben zufolge schon als Kind mit der Plattform. Seit 2024 Jahren dokumentiert er auf seinem YouTube-Kanal mit über 900.000 Abonnenten Fälle von mutmaßlicher Pädokriminalität und zeigt diese auch an. Wie Schlep in einem aktuellen Video berichtet, hat ihm dies nun eine Unterlassungserklärung von Roblox und eine dauerhafte Sperrung seines dortigen Accounts eingebracht.
Der YouTuber gibt in seinem Video auch an, dass er sich auf Roblox als minderjährig ausgegeben habe, um potenzielle Straftäter in eindeutige Chats zu verwickeln. Die Protokolle dieser Gespräche habe er den zuständigen Strafverfolgungsbehörden übergeben, was zu sechs Festnahmen geführt habe. Wie Roblox’ Sicherheitschef in einer Stellungnahme auf der Firmenwebseite erläutert, würden solche Aktionen die Sicherheit der Plattform sogar noch reduzieren: die so wörtlich, „bad actors“ seien dann länger dort aktiv, als wenn sie gleich angezeigt werden würden. Den Fall von Schlep erwähnt Roblox in seinem allgemein gehaltenen Statement zwar nicht ausdrücklich, der Hinweis auf angeblich „sensationalisierte Social-Media-Inhalte“ ist jedoch eindeutig.
(jo)
Künstliche Intelligenz
Microsoft bittet Großkunden zur Kasse: Keine neuen Volumenlizenzen ab November
Als Teil des fortwährenden Bestrebens, Lizenzstrukturen zu vereinfachen und Preise klarer zu kommunizieren, schafft Microsoft ab November Volumenlizenzen für Kunden mit Enterprise Agreements (EA) und Microsoft Products and Services Agreement (MSPA) ab. Während Kunden je nach Zahl der Lizenzen bisher in die Preisstufen A bis D fielen und 6 bis 12 Prozent Rabatt erhalten konnten, fallen ab dem 1. November alle Kunden in die Preisstufe A, die dem Listenpreis pro Lizenz auf der Webseite von Microsoft entspricht. Bestehende Verträge sind nicht unmittelbar betroffen, die de-facto-Preiserhöhung wirkt sich auf den Erwerb neuer Dienste und die Erneuerung von Vereinbarungen aus.
Von der Preiserhöhung betroffen sind die Online-Services von Microsoft, darunter Microsoft 365, Dynamics 365, Windows 365 und alle Security-, Identitätsmanagement- und Compliance-Produkte. Wer entsprechende Dienste selbst betreibt, bleibt von dieser Änderung verschont. Allerdings versucht Microsoft seine Kunden seit Jahren mit Nachdruck oder kleineren Unbequemlichkeiten auf die eigenen Cloud-Dienste zu stoßen, die datenschutzrechtlich mindestens umstritten sind. Ebenfalls ausgenommen von der Abschaffung der Volumenlizenzen sind die US-Regierung und weltweit die Education-Preislisten.
Microsoft-Partner, die ihren Kunden die Änderung näherbringen müssen, verweist das US-Unternehmen auf eine nüchterne Ankündigung, in der die Firma Transparenz und das Vereinheitlichen seiner Verkaufskanäle als fadenscheinige Begründung nennt. Etwas mehr Informationen finden sich in einer Erklärung auf Microsofts Learn-Seite. Dort gibt das Unternehmen an, dass sich Partner dank der vereinfachten Preisstruktur dann stärker auf die Geschäftsbedürfnisse ihrer Kunden konzentrieren könnten.
(pst)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen