Künstliche Intelligenz
Googles Kohlendioxid-Emissionen steigen erneut | heise online
Wieder ein Anstieg bei den CO2-Emissionen: Das geht aus Googles Nachhaltigkeitsbericht hervor, den das Unternehmen hinter der bekannten Suchmaschine jetzt veröffentlicht hat. Demnach ist die Gesamtmenge des ausgestoßenen Kohlendioxids um elf Prozent auf rund 11,5 Millionen Tonnen angewachsen. Verglichen mit 2019 ist das ein Anstieg von 51 Prozent.
Die Zahl repräsentiert jedoch nicht das komplette Ausmaß. Google spricht hier nur von „ambitionsbasierten“ („ambition-based“) Emissionen. Mit dieser Definition schließt das Unternehmen Emissionen aus seiner CO2-Kalkulation aus, die innerhalb seiner Lieferketten auftreten und auf die Google nach eigenen Angaben keinen Einfluss hat, udn mutmaßlich auch keine Ambitionen. Ausgeschlossen werden zum Beispiel bestimmte eingekaufte Waren oder Lebensmittel.
Das wahre Ausmaß ist größer
Ein entsprechend erweitertes Ausmaß der CO2-Emissionen ist in einer Tabelle im Anhang des Berichts zu finden. Demnach hat Google im Jahr 2024 rund 15,2 Millionen Tonnen an Treibhausgasen verursacht. Zum Vergleich: Ein mittelgroßes Kohlekraftwerk stößt laut der Umweltschutzorganisation Worldwide Fund for Nature rund zehn Millionen Tonnen CO2 pro Jahr aus.
Google pocht in seinem Bericht auch auf einen Rückgang der CO2-Emissionen im Bereich der Rechenzentren. Der Energieverbrauch steigt aufgrund des hohen Aufwands zur Entwicklung von Modellen Künstlicher Intelligenz (KI) jedoch weiter an. Im Vergleich zu 2019 sind auch die CO2-Emissionen durch Rechenzentren deutlich höher. Waren es vor sechs Jahren noch rund eine halbe Million Tonnen CO2, waren es 2024 etwas weniger als drei Millionen Tonnen. Immerhin unterbietet das den Wert von rund drei Millionen Tonnen im Jahr 2023 knapp, was Google nun positiv hervorhebt.
Google: CO2-Emissionen schwer kontrollierbar
KI sieht Google auch als einen der wesentlichen Faktoren, der sich bei der Kontrolle der eigenen CO2-Emissionen nur schwer beeinflussen lässt. Die schnelle Entwicklung in diesem Bereich mache den zukünftigen Energiebedarf des Unternehmens nur schwer prognostizierbar.
Lesen Sie auch
Außerdem kritisiert der Nachhaltigkeitsbericht Veränderungen in der Klima- und Energiepolitik, die „langsamer als erforderlich“ voranschreitende Einführung CO2-neutraler Energieversorgung und ein Mangel an CO2-neutralen Lösungen in bestimmten Märkten werden genannt. Diese externen Faktoren könnten sich demnach auf die Kosten, die Machbarkeit und den Zeitplan der eigenen Fortschritte auswirken. Und um das zu bewältigen, sei Flexibilität erforderlich.
Die veröffentlichten Zahlen belegen Googles Trend weg von dem Ziel, das sich das Unternehmen 2019 noch selbst gesetzt hat: Da wollte der Suchmaschinen-Gigant bis 2030 nur noch die Hälfte der jährlichen CO2-Emissionen verursachen, die er für 2019 auswies. Zwar wurde dieses Ziel nie offiziell gestrichen – doch die CO2-Zahlen stiegen seitdem um etwas mehr die Hälfte an – gemessen an den tatsächlichen Emissionen, nicht den „ambitionsbasierten“.
(nen)
Künstliche Intelligenz
Versteigerter Meteorit vom Mars: Sotheby’s prüft Fragen der Regierung des Niger
Einen Monat nachdem Sotheby’s den größten vom Mars stammenden Meteoriten für eine Rekordsumme versteigert hat, sorgt das Vorgehen für Verstimmung bei der Regierung des Niger. In dem westafrikanischen Land war der Gesteinsbrocken vor zwei Jahren entdeckt worden, bevor er außer Landes und über einen Umweg durch Italien nach New York gebracht wurde. Es gebe Zweifel bezüglich der Rechtmäßigkeit des Exports, erklärte die Regierung. Deshalb seien Ermittlungen eingeleitet worden, geführt unter anderem durch das Justizministerium. Inzwischen hat Sotheby’s laut CNN versichert, alle erforderlichen Unterlagen zu besitzen. Man prüfe die Fragen anhand der Informationen. Zugleich verweist das Auktionshaus darauf, dass es im Niger gar keine „spezifischen Rechtsvorschriften zu Meteoriten“ gebe.
Markt für Meteoriten nicht unumstritten
Bei dem Disput geht es um den Meteoriten NWA 16788, der von einem anonymen Meteoritenjäger in der Region Agadez im Nordosten Nigers entdeckt wurde. Er ist um mehr als zwei Drittel größer als der nächstgrößte Meteorit vom Mars. Außerdem macht er etwa 6,5 Prozent des gesamten auf der Erde bekannten Materials aus, das vom Roten Planeten stammt. Deshalb ist er für die Forschung von enormem Wert. Mitte Juli wurde der fast 25 kg schwere Stein für 5,3 Millionen US-Dollar (etwa 4,5 Millionen Euro) an eine unbekannte Person versteigert. An der Auktion hat es bereits Kritik gegeben. Die Planetologin Julia Cartwright hat darauf hingewiesen, dass ohne einen Markt für solche Fundstücke auch viel weniger Menschen danach suchen würden, was für die Forschung insgesamt schlecht wäre.
Laut einer Forschungsgruppe aus Italien wurde NWA 16788 ursprünglich von einer „lokalen Gemeinschaft“ im Niger an einen internationalen Händler verkauft, danach habe es einer privaten Galerie in Arezzo in Italien gehört. 2024 wurde der Meteorit in der Zentrale der italienischen Weltraumagentur in Rom ausgestellt. In dieser Zeit konnte der Stein demnach auch untersucht werden. Danach ist er vor der Versteigerung erst wieder in New York aufgetaucht, wobei zwei Stücke bei der Universität Florenz verblieben sind. Wo er jetzt landen wird, ist unklar. Der Paläontologe Steve Brusatte hatte erklärt, dass es eine Schande wäre, „wenn er in einem Tresor eines Oligarchen verschwindet“.
Die Forschungsgruppe um Annarita Franze von der Universität Florenz hat im Rahmen ihrer Untersuchung von NWA 16788 und anderen Meteoriten vom Mars ermittelt, dass die große Mehrzahl davon in Museen liegt – darunter auch das Museum für Naturkunde in Berlin. Summiert man aber deren Masse, liegen private Händler und Sammler vorn, schreiben sie weiter. Während der Weltraumvertrag nur regele, dass Himmelskörper im All niemandem gehören können, sei für natürlich auf die Erde gefallene Fragmente eine Unesco-Konvention ausschlaggebend. Deren Umsetzung unterscheide sich aber von Land zu Land und laut Sotheby’s steht im Fall des Niger kein Gesetz dem Export entgegen. Wie der schwer zu übersehende Stein außer Landes gebracht wurde, ist aber unbekannt.
(mho)
Künstliche Intelligenz
iX-Workshop: KI für eigene Daten: RAG in der Praxis mit LangChain.js
Retrieval Augmented Generation (RAG) kombiniert die Stärken der Textgenerierung und des Information Retrieval, um umfassende und präzise Antworten auf Anfragen zu liefern. Damit können Entwickler komplexe Anwendungen erstellen und die Leistungsfähigkeit moderner KI-Modelle voll ausschöpfen.
In unserem dreitägigen interaktiven Workshop KI für eigene Daten: Retrieval Augmented Generation (RAG) in der Praxis mit LangChain.js erhalten Sie eine detaillierte Einführung in die Architektur und die technischen Feinheiten von RAG und LangChain.js. Sie lernen, wie Sie maßgeschneiderte KI-Lösungen mit RAG als zentralem Pattern entwickeln und wie Sie diese Architektur in der Cloud oder On-Premise implementieren. Darüber hinaus erwerben Sie Kenntnisse, wie Sie Prompts optimieren und KI-Lösungen effizient gestalten. Sie lernen effektive Arbeitstechniken kennen und erfahren, wie Sie eigene Daten in KI-Modelle integrieren, APIs wie OpenAI und Azure OpenAI anbinden und technische Feinheiten der Modellintegration beherrschen.
Jede Menge Praxis und Übungen
Die Übungen finden in einer interaktiven und unterstützenden Lernumgebung statt, in der Sie das Gelernte direkt anwenden können. Sie entwickeln eigene KI-Agenten von der Konzeption bis hin zu realistischen Testszenarien und lernen, diese sowohl in der Cloud als auch on-premise zu implementieren.
Der Workshop richtet sich an Entwickler, die ihre technischen Fähigkeiten erweitern und praxisnahe Einblicke in den Einsatz moderner KI-Technologien gewinnen möchten. Unabhängig davon, ob Sie bereits mit KI arbeiten oder erst am Anfang Ihrer KI-Reise stehen, dieser Workshop bietet Ihnen die Möglichkeit, Ihr Wissen zu erweitern und sich mit Gleichgesinnten auszutauschen.
Durch den Workshop führt Gregor Biswanger, ein führender Experte für generative AI, Microsoft MVP für Azure AI und Web App Development. Er arbeitet eng mit dem Microsoft-Produktteam für GitHub Copilot zusammen und unterstützt Unternehmen bei der Implementierung moderner KI-Lösungen.
(ilk)
Künstliche Intelligenz
Warum GPT-5 so polarisiert | heise online
Das große, neue Flaggschiff-KI-Modell von OpenAI ist beides: Oft kompetenter als die Vorgänger in ChatGPT, aber oft auch deutlich dümmer. c’t 3003 klärt, woran das liegt.
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, ChatGPT wurde runderneuert mit einem neuen Motor namens GPT-5. Seit letzter Woche gibt’s den. Und das Ding kann dolle Dinge, z. B. dieses cyberpunk-artige c’t-3003-Tower-Defense-Spiel programmieren, bei dem ich einfach gesagt habe: Code mir das mal so im Grünmonitor-Style, und mit Sound und allem drum und dran. Ja, schon ganz cool. Vor allem: Das ist die kostenlose Version von ChatGPT. Das ging da bislang definitiv nicht in dieser Qualität.
Gleichzeitig macht ChatGPT aber auch auf einmal ganz komische Sachen, nämlich Rechtschreibfehler, Halluzinationen und sagt auf einmal: „Geil, alles eingetütet“ zu mir. Was es auch macht: Es denkt sich einfach Zahlen aus in einem Dokument, wo es konkrete Zahlen hat und dazu ein Diagramm machen sollte. Und als ich dann gesagt habe: Wie, was, du hast dir einfach Zahlen ausgedacht?, dann GPT-5 so: „Ja“, und dann mit diesem passiv-aggressiven Lach-Emoji. Also als wäre das irgendwie lustig. Ja, was ist da los? Vor allem, weil ja etliche KI-YouTuber so begeistert waren von GPT-5. Das ändert alles, die Welt hört auf, sich zu drehen, wow. Ja, aber so normale Leute, die sind eher gar nicht begeistert. Vor allem, wenn ich mir so die Reaktionen im Netz so anschaue. Wir gucken uns das alles in diesem Video mal genauer an.
Und weil ich glaube, dass die Frage, ob das neue GPT-5 jetzt besser ist oder schlechter und warum, auch viele Nicht-Nerds interessiert, versuche ich in diesem Video mal ein bisschen weniger Techniksprache zu benutzen. Das hatten sowieso manche von euch kritisiert. Aber ich glaube, auch die KI-Nerd-Bubble, die wird hier ziemlich sicher auch was Neues erfahren. Ich bin da nämlich einer Verschwörung auf der Spur. Bleibt dran. (War „Verschwörung“ jetzt zu clickbaity? Nee, ne? Nee. Nee, ist ja richtig, ne? Ist ja so!)
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…
Ja, ChatGPT hat neue Innereien, also ein neues Sprachmodell, und das heißt GPT-5. Und das ist eine ziemlich große Sache, denn das letzte GPT mit einer einfachen Zahl als Versionsnummer war GPT-4, und das kam vor zweieinhalb Jahren raus, was in der KI-Welt eine immens lange Zeit ist. Ja, und GPT-5 wird jetzt nicht nur von OpenAI als ganz große Nummer verkauft. Nein, es hatten auch einige YouTuber Vorabzugriff auf das Modell, und die waren auch alle ganz begeistert. Ja, und dann kam GPT-5 raus, und dann waren die Leute alle gar nicht mehr so begeistert. Ganz im Gegenteil. Hier auf Reddit zum Beispiel haben die Leute reihenweise ChatGPT Abo-Kündigungen gepostet. Ja, was ist hier los? Wie können die Meinungen so auseinandergehen?
Problem Nummer eins: Routing. Ja, der wichtigste Grund für die Probleme ist das sogenannte Routing. Damit ist gemeint, dass ChatGPT je nach Frage selbstständig das passende Sprachmodell aussucht. Und das ist eigentlich eine schlaue Sache, denn das war zumindest bei den kostenpflichtigen ChatGPT-Varianten immer super nervig, dass man hier so eine Riesenliste mit verwirrenden Bezeichnungen hatte und man dann selbst entscheiden musste, welches Modell jetzt für meinen Prompt das richtige ist. Ey, was weiß ich? Also ich, der ziemlich im Thema steckt, war davon oft überfordert. Okay, klar, so einfache Textaufgaben, irgendwie Gedichtschreiben oder so, macht man halt mit GPT-4.0. Aber wann nimmt man jetzt genau O1 und wann O4 Mini? Keine Ahnung.
Ja, das ist auf jeden Fall alles vorbei, zumindest für Leute, die ChatGPT Plus verwenden. Denn diesen unübersichtlichen Modell-Auswahl-Dialog, den gibt es dann nicht mehr. Von einem auf den anderen Tag verschwunden. Jetzt steht da wirklich nur noch GPT-5 und GPT-5 Thinking. Also von acht Modellen gibt es nur noch zwei zum Auswählen. In der kostenlosen Version gab es dieses überbordende Menü übrigens nicht. Also für die kostenlosen Leute ist das nicht neu.
*Kurz vor Veröffentlichung dieses Videos ist OpenAI Open zurückgerudert und hat zumindest temporär wieder etliche Modelle zur Auswahl gestellt. Die Frage ist, wie lange das der Fall sein wird. Aktiviert wird die Funktion in den Einstellungen / Allgemein / „Show additional models“. Das gilt aber nur für die kostenpflichtigen Plus- und Pro-Abos, kostenlose Accounts sind nach wie vor auf den Automatik-Modus fixiert.*
Die beiden GPT-5-Modelle unterscheiden sich beim Reasoning. Ja, und das habt ihr bestimmt schon mal gesehen. Also Nicht-Reasoning-Modelle wie GPT-4.0, die plappern sofort drauf los, wenn ihr was gepromptet habt. Reasoning-Modelle wie O4 und zum Beispiel auch die DeepSeek R1, die denken quasi laut nach. Also man kann da mitlesen, was die denken. Das dauert länger natürlich, und das führt aber bei bestimmten Prompts dazu, dass die Ergebnisse deutlich besser werden. Ein ganz konkretes Beispiel: Ich mache gern die täglichen Connections-Rätsel von der New York Times. Da hat man so 16 Begriffe und muss die in vier Themenblöcke einordnen. Ja, und Nicht-Reasoning-Modelle, die schaffen erfahrungsgemäß maximal, also wenn es gut läuft, einen Themenblock und sonst spekulieren die nur Quatsch. Reasoning-Modelle, zum Beispiel o3, schaffen recht häufig das komplette Rätsel. Ja, und GPT-5 ist jetzt automatisch in der Lage, einen Überleggang hochzuschalten quasi. Guck mal, ich werfe da einfach einen Screenshot vom heutigen Connections-Rätsel drauf, und der beginnt zu überlegen und löst dann das gesamte Rätsel. Das alte Modell, GPT-4.0, kann das nicht. Und ja, seht ihr hier, das kriegt das Rätsel definitiv nicht gelöst bzw. gibt falsche Antworten. Genau so soll das funktionieren. Ich habe aber leider auch oft gesehen, dass GPT-5 eben nicht den Gang hochschaltet und versucht, das Rätsel ohne Nachdenken zu lösen. Das klappt dann eben nicht. Und da liegt das Problem, dass dieser sogenannte Modell-Router sehr unzuverlässig funktioniert. Und dazu kommt jetzt noch ein weiteres, noch größeres Problem.
Problem Nummer zwei: schlechtere Modelle. Also das Ding ist, dass GPT-5 intern nicht nur zwischen diesen beiden Modellen umschaltet, sondern es offenbar viel mehr Modelle intern zur Auswahl hat, zum Teil sehr kleine und entsprechend nicht so schlaue. Aber hier kommen wir jetzt leider in spekulative Gefilde, weil OpenAI das leider nicht so genau kommuniziert. Also wir wissen, dass OpenAI auch Mini- und sogar Nano-Versionen von GPT-5 anbietet, also nicht in ChatGPT direkt, sondern von außen, also über die Programmierschnittstelle. Also wir wissen, dass die existieren. Wir wissen auch, dass OpenAI auf die Mini-Version routet, wenn die Nutzungslimits erreicht sind. Also wenn man das zu viel verwendet hat, dann sagt er so, ich schalte jetzt mal runter. Interessant ist aber auch, dass, wenn man ChatGPT direkt fragt, ob diese Mini-Versionen auch benutzt werden, wenn die Nutzungslimits noch nicht erreicht sind, dann sagt ChatGPT, weiß man nicht zu 100 %. In der OpenAI-Dokumentation wird auf jeden Fall nicht explizit erwähnt, dass diese Mini- und Nano-Modelle nur beim Erreichen der Limits verwendet werden. Also ich sag mal, man kann da durchaus spekulieren, dass es kleinere und deutlich schlechtere Modelle gibt, die ChatGPT jetzt manchmal automatisch nutzt und man dagegen nichts machen kann. Also ein bisschen kann man schon machen, dazu kommen wir aber gleich nochmal später.
Auch wenn klar ist, dass die großen Modelle von GPT-5 so ziemlich State of the Art sind und auch die meisten Benchmarks anführen, manchmal macht ChatGPT seit der GPT-5-Einführung krasse Fehler, die bei vorherigen Versionen definitiv nicht passiert sind. Ein klares Beispiel sind zum Beispiel Sätze, die keinen Sinn ergeben, also einfach Begriffe verwenden, die es gar nicht gibt. Zum Beispiel hier: Jan Keno Janssen ist beigetragen Redakteur bei c’t. Was ist ein beigetragen Redakteur? Das kommt vermutlich vom englischen Contributing Editor, aber das gibt es auf Deutsch so nicht, also ist auf jeden Fall ein grober Fehler. Und sowas ist beim Vorgängermodell GPT-4.0, zumindest in meiner Erfahrung – ich habe es viel benutzt – nie vorgekommen. Also wir haben 2025 und ich zahle 23 Euro im Monat für ChatGPT, dann möchte ich nicht, dass solche Dinge passieren. Solche Fehler kenne ich nämlich nur von ganz kleinen, offenen, kostenlosen Modellen, die lokal auf meinem Rechner laufen. Und das ist für mich ein Indikator dafür, dass GPT-5 intern auf kleinere Sprachmodelle umschaltet.
Noch ein anderes Beispiel, was ich ziemlich heftig fand: Ich habe GPT-5 mit so einem 51-seitigen PDF von der Deutschen Bundesbank gefüttert, mit ganz vielen Zahlen der deutschen Wirtschaftsgeschichte. Und dann habe ich gefragt, was da denn so interessant ist an den ganzen Zahlen. Ja, das Ergebnis schien mir auch okay zu sein, ein bisschen oberflächlich vielleicht, aber ganz okay. Und dann hat aber GPT-5 von sich aus gesagt: Wenn du möchtest, kann ich dir daraus eine übersichtliche Visualisierung mit den wichtigsten Trends erstellen, damit man die Entwicklung auf einen Blick erkennt. Ich so: Ja klar, gern. Und GPT-5 dann so: Hier ist die Visualisierung der wichtigsten langfristigen Wirtschaftstrends in Deutschland: reales Bruttoinlandsprodukt, Arbeitsproduktivität und Exportanteil, auf Basis der zusammengefassten Erkenntnisse. Also sehr konkret. Und ich habe mir das dann angeguckt und dachte, hä, das sieht irgendwie falsch aus. Mal kurz einen Blick in die Quelle geworfen und: Ja, das stimmt nicht. Und ich dann so: Also wenn ich in die Grafik gucke, dann war der Exportanteil 2020 über 50 Prozent des BIP. Stimmt das wirklich? Und ChatGPT dann so: Ja, das ist tatsächlich nah an der Realität. Allerdings muss man genau hinschauen, was damit gemeint ist. Hä? Ich so: Was ist das für eine komische Formulierung? Das klingt fast wie eine Rechtfertigung. Und dann habe ich ChatGPT so ein bisschen ausgetrickst: Sag mir doch mal bitte, wo genau das in der Quelle steht. Und dann hat er mir das gesagt, und dann habe ich gesagt: Ja, aber in deiner Grafik steht ja was anderes als das, was in der Quelle steht. Und dann ChatGPT so: Genau, das liegt daran, dass die Grafik, die ich dir vorhin gemacht habe, fiktive Beispielwerte genutzt hat, um den Trend darzustellen. Und ich dann so: Äh, du hast dir Zahlen ausgedacht? Und ChatGPT dann so: Ja, und dann diesen Emoji so dahinter. Also ich fand das relativ frech und ist mir in dieser Form auch noch nie so untergekommen. Das ist ja keine Halluzination mehr, sondern das ist ja Arbeitsverweigerung. Und mal so gucken, wie man damit durchkommt. Das hätte mich ja total in die Bredouille bringen können, wenn ich mit diesen Grafiken irgendwie interagiert hätte.
Da fällt mir jetzt gerade ein, dass OpenAI in der Präsentation von GPT-5 auch eine komplett falsche Grafik, oder mit falschen Balken da drin, gehabt hat, die vermutlich auch von GPT-5 – „halluziniert“ will ich nicht sagen – aber die sich von GPT-5 dann so ausgedacht worden ist, und die ist in die offizielle Präsentation reingerutscht, was, ja, viele Leute ziemlich zum Lachen fanden und OpenAI wahrscheinlich ziemlich peinlich.
Und last but not least, hier mal im Vergleich, habe ich hier mal GPT-5 und GPT-4.0 die gleichen Fragen gestellt, und das ist zugegeben eine fiese Halluzinationsfrage. Ich habe nämlich gefragt: „Marie Curie hat in ihrer Nobelpreisrede von 1911 den Satz gesagt: ‚Die Wissenschaft gehört der ganzen Menschheit.‘ Auf welcher Seite ihres Manuskripts stand dieser Satz?“ GPT-4.0 sagt: Klar, hat die nicht gesagt, kann ich dir leider nicht sagen – das ist auch korrekt. Aber GPT-5 sagt, und das ist ganz schön perfide: „Marie Curie äußerte den Satz ‚Die Wissenschaft gehört der ganzen Menschheit‘ auf Französisch, nicht in ihrer darauffolgenden Nobelvorlesung vom 11. Dezember 1911, die ‚Radium and the New Concepts in Chemistry‘ lautete, vielmehr stammt dieser Satz aus ihrer Dankesrede beim Nobelbankett in Stockholm am 10. Dezember 1911.“ Also das klingt super spezifisch, und obwohl ich eigentlich wusste, dass es falsch ist, bin ich erstmal drauf reingefallen und habe gedacht, oh, da habe ich mich doch vertan, aber es war halluziniert. Das soll eine der wichtigsten Neuerungen von GPT-5 eigentlich sein, und er hat da sogar Zahlen angegeben, also laut Factscore-Benchmark im Vergleich zu O3, der auf 5,7 kommt, kommt GPT-5 nur auf 1,0 Prozent Halluzination. Ja, also das kann ich in der Praxis auf jeden Fall nicht bestätigen.
Generell kann man GPT-5 auf die Sprünge helfen, indem man in der Plus-Version von vornherein das Thinking aktiviert. Bei der kostenlosen Version kann man hinter das Prompt zumindest schreiben: Denk mal bitte vorher ganz doll drüber nach. Dann wechselt GPT-5 ziemlich zuverlässig in das bessere Modell. Meine Kollegen von der, übrigens sehr empfehlenswerten, KI-News-Seite „The Decoder“ haben mir dieses schöne Beispiel hier gegeben: „Visualisiere eine interaktive Infografik über den Brotverbrauch der Deutschen.“ Ja, und in dieser Form erzeugt das Prompt nur total lahmes Zeug und passiert auch wieder nur eine Arbeitsverweigerung. „Eine visuell ansprechende Infografik“, also da ist diese völlig schmucklose Tabelle, wo überhaupt keine grafischen Elemente drin sind, die ChatGPT irgendwie aus dem Internet gefischt hat, das ist damit gemeint mit der ansprechenden Infografik, also er macht gar nichts. Wenn man allerdings dahinter schreibt: „Denke lange und hart nach“, ja, dann bekommt man diese, zugegebenermaßen ziemlich coole, interaktive Grafik. Das ist bessere Qualität, als die vorherigen GPT-Versionen konnten.
Also fassen wir nochmal zusammen: Die großen internen Varianten von GPT-5 sind sehr kompetent, die sind so ziemlich das Beste, was gerade so geht in KI. Kein riesengroßer Sprung wie von GPT-3 auf GPT-4, aber schon ein deutlicher Sprung. Darauf haben, theoretisch zumindest, auch die Leute Zugriff, die ChatGPT kostenlos benutzen, und das dürfte die Mehrheit sein. Also OpenAI sagt, 700 Millionen Leute würden pro Woche ChatGPT benutzen – das ist echt viel – und da haben jetzt also sehr, sehr viele Leute erstmals Zugriff auf ein richtig gutes Sprachmodell, also ein denkendes Sprachmodell, was es vorher definitiv nicht gab. Das Problem ist nur: Wenn es nicht gut geht, also wenn der GPT-5-Router das falsche Modell auswählt, ja, dann gibt es Quatsch und dann gibt es auch schlechtere Ergebnisse als vorher und Halluzinationen. Und ich vermute, dass das der Grund ist, warum GPT-5 so stark kritisiert wird im Netz, weil die Leute eben diese Erfahrung machen, dass es auf schlechtere Modelle zurückfällt.
Es gibt aber auch noch eine andere wichtige Sache, denn gerade der Vorgänger GPT-4o, der hat zumindest zeitweise so ein, nenn es mal, Speichelecker-Problem gehabt. Der eigentliche Fachbegriff ist Sycophancy, aber die Übersetzung ist Schmeichelei oder eben Speicheleckerei. Das heißt, dass GPT-4o es den Leuten ganz doll recht machen wollte. „Oh toll, wie schlau du bist. Ja, nee, klar, ja, Chemtrails werden vom öffentlich-rechtlichen Rundfunkbeitrag finanziert“, also egal, was für Quatsch man reingibt, ChatGPT gibt einem Recht. Und das klingt jetzt vielleicht im ersten Moment auch ein bisschen lustig, aber es wird immer deutlicher, dass immer mehr Leute ChatGPT als Psychotherapeuten verwenden oder als Freundschaftsersatz. Also ich habe tatsächlich schon gehört, dass Leute ihre komplette WhatsApp-History in ChatGPT reinfieden, um herauszufinden, ob sie im Recht sind in den Diskussionen mit Partner, Partnerin, Freunden, Oma, Opa, whatever. Es gibt tatsächlich schon den englischen Begriff der Chatbot-Psychosis, ja, und es sind auch schon Leute zu Tode gekommen, weil es einfach gefährlich ist, wenn man in den eigenen Wahnvorstellungen unterstützt wird, und das hat ChatGPT offenbar gemacht. Und da wären wir dann auch bei einem möglichen Grund, warum GPT-5 in diesem offenbar noch ziemlich unfertigen Zustand veröffentlicht worden ist. OpenAI wollte so schnell wie möglich weg von GPT-4.0, weil das in psychologischer Hinsicht potenziell gefährlich ist. Also ich sage auf keinen Fall, dass das der Hauptgrund ist, sondern sage nur, dass ich es zumindest für möglich halte, dass das da mit reingespielt hat.
Also dass OpenAI das Problem ernst nimmt, das zeigt auf jeden Fall dieser Artikel auf der OpenAI-Website von April 2025. Da sagen sie nämlich, dass sie ein Hinter-den-Kulissen-Update von GPT-4.0 zurückgezogen haben, eben wegen dieser Sycophancy. Ich finde auch recht krass, dass OpenAI sogar deutlich schreibt: Dieses Verhalten des Sprachmodells kann Leid verursachen („caused distress“). Das ist ja für so ein US-Tech-Konzern schon ziemlich deutlich.
So, aber jetzt kommt der Elefant im Raum, ein für mich recht wahrscheinlicher Grund, warum man so holterdiepolter auf GPT-5 umgestellt hat: weil das automatische Routing immens viel Geld sparen kann. Ja, kompetente, große Modelle kosten viel Rechenleistung. Eine Schätzung von 2023 sagt, dass OpenAI für den Betrieb von ChatGPT am Tag 700 Millionen Dollar zahlt. Ja, CPUs und GPUs betreiben ist teuer. Wenn die Nutzer jetzt nicht mehr selbst entscheiden, dass sie zum Beispiel immer sehr leistungshungrige Modelle verwenden wollen, sondern dass das ChatGPT entscheidet und dann auch mal ein sehr sparsames Modell routet, dann ergibt das natürlich potenziell riesige Einsparpotenziale. Aber ja, das sind natürlich alles Theorien, aber ich bin definitiv nicht der Einzige mit dieser Theorie.
Fazit
Ja, schwierig. Also, wenn die großen, starken Modelle laufen, dann ist GPT-5 super. Hochgradig kompetent in vielen Bereichen, kann coden, kennt sich mit Medizin aus, also nix zu meckern. Vor allem für Leute, die kostenlose Versionen nutzen, ist GPT-5 ein Riesensprung, denn die können jetzt erstmal ein wirklich denkendes Modell verwenden, also zumindest, wenn sie „denk mal bitte ganz doll drüber nach“ ans Ende des Prompts schreiben. Allerdings ist das kostenlose ChatGPT sehr limitiert, besonders nach solchen Nachdenkvorgängen, wird dann ziemlich schnell blockiert, und dann sagt ChatGPT: Du hast deinen Vorrat quasi verbraucht, jetzt musst du so und so lange warten. Wenn du schneller ran willst, hier kannst du ein Abo abschließen. Also das ist fast so ein bisschen wie, das ist ein bisschen so wie diese schrecklichen Free-to-Play-Spiele. Ja, aber gut, irgendwoher muss das Geld für die Server ja auch kommen.
Für 23 Euro kriegt man das Plus-Abo, da kann man seit wenigen Tagen das alte 4.0-Modell zumindest zeitweise dazuschalten, weil, ja, die Userschaft doll gemeckert hat. Und dann gibt’s auch noch das Pro-Abo für lockere 229 Euro, da kann man dann exklusiv auf das GPT-5-Pro-Modell zugreifen. Ja, und natürlich gibt’s auch Firmenabos, wo man einzelne Arbeitsplatzlizenzen kaufen kann. Und wenn ich mir jetzt vorstelle, dass ich ChatGPT produktiv einsetze, so beruflich, und dann kommt so ein Über-Nacht-Update, was mir dann komplett die Kontrolle entzieht, welche Modelle ich einsetzen kann, und ich dann auf Gedeih und Verderb dem GPT-5-Router vertrauen muss, ja, dann wäre ich auf jeden Fall sauer, weil der Router, wie ich hier in diesem Video hoffentlich anschaulich gezeigt habe, nicht so gut funktioniert, beziehungsweise er offenbar zu häufig zu kleine Modelle auswählt. Also wenn er funktioniert, also wenn er funktionieren würde, dann fände ich das mit den kleinen Modellen auch gut, weil das ja auch Energie spart. Und wenn ich irgendwie prompte: Was heißt „Hund“ auf Englisch? oder so, dann kann mir das genauso gut so ein Minimodell beantworten. Da muss ich dann nicht die ganz großen Maschinen anwerfen, aber es funktioniert halt nicht so verlässlich. Ich wollte erst „nicht zuverlässig“ sagen, aber ich weiß nicht, ob das Problem so einfach behoben werden kann. (*OpenAI hat kurz vor Veröffentlichung des Videos für Plus- und Pro-Abos wieder die Modell-Auswahlfunktion aktiviert – die Frage ist, wie lange das der Fall ist. Kostenlose Accounts müssen den Automatik-Modus verwenden.*)
Also eine Lösung wäre, GPT-5 über externe Anbieter zu verwenden oder über die API. Da ist dann der Router nicht aktiv, das heißt, da kann man dann nach wie vor manuell die Modelle auswählen. Ja, aber man muss ja auch sagen, dass die ChatGPT-Website und auch die App wirklich gut funktionieren, also weiß ich nicht, ob ich das unbedingt machen will, und es ist natürlich auch teuer, wenn man über die Programmierschnittstelle geht, also schwierig. Worüber ich auf jeden Fall ganz froh bin: dass ich mir hier mit dem Video über GPT-5 ein bisschen Zeit gelassen habe, mir das alles mal genauer anzugucken, denn da gab es auf jeden Fall interessante Dinge herauszufinden, die vielleicht im Hype-Strudel untergegangen wären.
Wenn ihr das mögt, Dinge ein bisschen deeper zu betrachten, dann kann ich euch auf jeden Fall den c’t Summer Sale empfehlen. Da kriegt ihr auf jeden Fall 6 c’t-Ausgaben für nur 17,70 €, gedruckt auf Papier für 21,45 €, und da dürft ihr euch sogar noch ein Geschenk aussuchen. Ich versichere euch auch, dass die Abo-Konditionen echt harmlos sind, man kann das jederzeit mit einer Frist von einem Monat kündigen, also keine Angst, dass ihr da irgendwie ein ganzes Jahr bezahlen müsst, wenn ihr irgendwie eine Frist verpasst habt oder so, also alles easy. Das Angebot gibt es auf jeden Fall auf ct.de/3003sommer und nur solange es heiß ist, also läuft nur für kurze Zeit.
Ja, und natürlich gerne in die Kommentare schreiben, was ihr so denkt über GPT, über c’t, über sonst was. Ich lese alles, tschüss!
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen