Connect with us

Künstliche Intelligenz

Untergangsszenario: Fluchtplan aus dem sinkenden Auto


Der Sommer hat gerade begonnen, wieder mit vermeidbaren tödlichen Badeunfällen. Ertrinken ist eine der häufigsten unnatürlichen Todesarten und trifft – wenn auch wirklich selten – bisweilen Autofahrer. Die Chancen zur Selbstrettung hat jetzt der ADAC im Versuch ermittelt und gibt auf dieser Basis Empfehlungen, wie man ein untergehendes Fahrzeug am sinnvollsten verlassen kann. Dazu wurden ein Elektroauto und ein konventionelles versenkt. Ein Taucher am Steuer hat auf verschiedenen Wegen probiert, den sinkenden Wagen zu verlassen.

Erste Erkenntnis: Ein Auto schwimmt, aber nicht lange. Der elektrische Citroën ë-C4 (Test) ging in etwa drei Minuten unter, der leichtere Seat Exeo mit Verbrennungsmotor bleibt etwa eine Minute länger an der Oberfläche. Beide sinken steil mit der Front voran. Ob sich das etwa bei Autos mit Elektromotor an der Hinterachse, etwa einem VW ID.4, auch so verhält, wurde zwar nicht ausprobiert, es ist aber wahrscheinlich: Der vordere Überhang ist in der Regel kein Hohlraum und gibt daher keinen Auftrieb.


ADAC Auto im Wasser

ADAC Auto im Wasser

So wie dieser elektrische Citroën ë-C4 schwimmt ein Auto nur kurz, bevor es steil mit der Front voran zu sinken beginnt.

(Bild: ADAC)

Zweite Erkenntnis: Es gibt prinzipiell nur eine sinnvolle Chance, das Auto mit höherer Überlebenschance zu verlassen, und zwar durch das der Person nächste Seitenfenster. Zuerst muss man aber daran denken, möglichst sofort nach der Wasserung den Gurt zu lösen.

Das Fenster schnellstmöglich zu öffnen, ist aus zwei Gründen wichtig: Die meisten Autos sind mit elektrischen Fensterhebern ausgestattet. Ihre Funktion ist unter Wasser nur für eine kurze Zeit wahrscheinlich. Ob Kurbel oder Fensterheber, einseitiger Wasserdruck auf die Scheibe – also so lange noch Luft im Wagen ist – erhöht den Kurbelwiderstand stark und kann zum Klemmen führen. Daher möglichst früh öffnen.


ADAC Auto im Wasser

ADAC Auto im Wasser

Der Citroën ë-C4 ließ sich wie vorgeschlagen über das Seitenfenster verlassen. Das ist der chancenreichste Fluchtweg.

(Bild: ADAC)

Öffnet die Seitenscheibe nicht, sollte man sie einschlagen. Der ADAC empfiehlt daher, einen Nothammer in Griffweite mitzuführen. Diese sind meist in Kombination mit einem Gurtschneider inklusive Halterung für den Fahrzeuginnenraum erhältlich. Als Alternative schlägt der Club vor, einen Versuch mit den Metall-Steckverbindungen einer herausgezogenen Kopfstütze oder einem anderen spitzen, schweren Gegenstand zu unternehmen. Nach unserer Erfahrung als Redakteure dieses Kanals lassen sich Kopfstützen in modernen Autos selten herausziehen, ohne vorher die Lehne stark zu neigen. Zudem müssen fast immer Entriegelungen überwunden werden. Wer deren Prinzip erst verstehen muss, hat schon verloren.

Am leichtesten brechen Scheiben in einer Ecke. Dieses Autoglaser-Allgemeinwissen konnte der ADAC in seinem Test vollauf bestätigen, allerdings nur bei den Testfahrzeugen. Modernere, teurere Autos sind indes aus Komfortgründen häufig doppelt verglast. Deren Scheiben sind daher so gut wie unzerstörbar. Der Club gibt dazu den Tipp, sich vorher über das Material der Seitenfenster zu informieren. Ob sie mit Verbund- oder Doppelverglasung ausgeführt sind, ist an einem aufgedruckten oder ins Glas geätzten „XI“ zu erkennen oder der Rettungskarte für das betreffende Auto zu entnehmen. Man bekommt dies direkt beim Autohersteller, bei den Prüfgesellschaften (TÜV, KÜS, GTÜ, Dekra) oder bei den Autoclubs.


ADAC Auto im Wasser

ADAC Auto im Wasser

Die Versuche des Autoclubs fanden ohne zusätzliche Umweltbeeinträchtigung auf einer Versuchsstrecke statt.

(Bild: ADAC)

Ist dies der Fall, führt der einzige Weg durch die Heckscheibe, die normalerweise auch bei teuren Autos einfach verglast ist. Dabei ist Eile geboten, denn man muss dazu die Sitzlehnen vorn und hinten überwinden. Sind alle drei hinteren Kopfstützen aufgestellt, müssen auch diese noch nach unten gedrückt werden. Lose Gegenstände im Wagen können aufschwimmen und die Situation zusätzlich erschweren.

Die Windschutzscheibe ist hingegen nie eine Option, sie besteht, außer bei einige Jahrzehnte alten Autos, aus Verbundglas und damit für einen Menschen im Auto unzerstörbar. Die Sekuritglasscheibe eines 50 Jahre alten Autos zu zerschlagen wäre zwar möglich, aber keine gute Idee, weil man dann das Auto gegen das einströmende Wasser nach unten verlassen müsste. Das stellt selbst Rettungstaucher vor Probleme.

Auch das Öffnen von Türen kann man allenfalls probieren, wenn der Innenraum voll mit Wasser ist, anderenfalls lastet zu hoher Wasserdruck auf ihnen. Das hat der Versuch des ADAC bestätigt. Nach dem Druckausgleich hat es der Taucher zwar geschafft, aber wohl nur, weil er nach eineinhalb Minuten unter Wasser mit Atemluft aus seinem Gerät versorgt war. Menschen ohne Atemgerät, unter Stress und möglicherweise auch noch verletzt, billigt der ADAC unter solchen Umständen kaum eine Überlebenschance zu.


(fpi)



Source link

Künstliche Intelligenz

iX-Workshop: KI für eigene Daten: RAG in der Praxis mit LangChain.js


Retrieval Augmented Generation (RAG) kombiniert die Stärken der Textgenerierung und des Information Retrieval, um umfassende und präzise Antworten auf Anfragen zu liefern. Damit können Entwickler komplexe Anwendungen erstellen und die Leistungsfähigkeit moderner KI-Modelle voll ausschöpfen.

In unserem dreitägigen interaktiven Workshop KI für eigene Daten: Retrieval Augmented Generation (RAG) in der Praxis mit LangChain.js erhalten Sie eine detaillierte Einführung in die Architektur und die technischen Feinheiten von RAG und LangChain.js. Sie lernen, wie Sie maßgeschneiderte KI-Lösungen mit RAG als zentralem Pattern entwickeln und wie Sie diese Architektur in der Cloud oder On-Premise implementieren. Darüber hinaus erwerben Sie Kenntnisse, wie Sie Prompts optimieren und KI-Lösungen effizient gestalten. Sie lernen effektive Arbeitstechniken kennen und erfahren, wie Sie eigene Daten in KI-Modelle integrieren, APIs wie OpenAI und Azure OpenAI anbinden und technische Feinheiten der Modellintegration beherrschen.

Die Übungen finden in einer interaktiven und unterstützenden Lernumgebung statt, in der Sie das Gelernte direkt anwenden können. Sie entwickeln eigene KI-Agenten von der Konzeption bis hin zu realistischen Testszenarien und lernen, diese sowohl in der Cloud als auch on-premise zu implementieren.

Der Workshop richtet sich an Entwickler, die ihre technischen Fähigkeiten erweitern und praxisnahe Einblicke in den Einsatz moderner KI-Technologien gewinnen möchten. Unabhängig davon, ob Sie bereits mit KI arbeiten oder erst am Anfang Ihrer KI-Reise stehen, dieser Workshop bietet Ihnen die Möglichkeit, Ihr Wissen zu erweitern und sich mit Gleichgesinnten auszutauschen.

Durch den Workshop führt Gregor Biswanger, ein führender Experte für generative AI, Microsoft MVP für Azure AI und Web App Development. Er arbeitet eng mit dem Microsoft-Produktteam für GitHub Copilot zusammen und unterstützt Unternehmen bei der Implementierung moderner KI-Lösungen.




(ilk)



Source link

Weiterlesen

Künstliche Intelligenz

Warum GPT-5 so polarisiert | heise online


Das große, neue Flaggschiff-KI-Modell von OpenAI ist beides: Oft kompetenter als die Vorgänger in ChatGPT, aber oft auch deutlich dümmer. c’t 3003 klärt, woran das liegt.

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guckt mal hier, ChatGPT wurde runderneuert mit einem neuen Motor namens GPT-5. Seit letzter Woche gibt’s den. Und das Ding kann dolle Dinge, z. B. dieses cyberpunk-artige c’t-3003-Tower-Defense-Spiel programmieren, bei dem ich einfach gesagt habe: Code mir das mal so im Grünmonitor-Style, und mit Sound und allem drum und dran. Ja, schon ganz cool. Vor allem: Das ist die kostenlose Version von ChatGPT. Das ging da bislang definitiv nicht in dieser Qualität.

Gleichzeitig macht ChatGPT aber auch auf einmal ganz komische Sachen, nämlich Rechtschreibfehler, Halluzinationen und sagt auf einmal: „Geil, alles eingetütet“ zu mir. Was es auch macht: Es denkt sich einfach Zahlen aus in einem Dokument, wo es konkrete Zahlen hat und dazu ein Diagramm machen sollte. Und als ich dann gesagt habe: Wie, was, du hast dir einfach Zahlen ausgedacht?, dann GPT-5 so: „Ja“, und dann mit diesem passiv-aggressiven Lach-Emoji. Also als wäre das irgendwie lustig. Ja, was ist da los? Vor allem, weil ja etliche KI-YouTuber so begeistert waren von GPT-5. Das ändert alles, die Welt hört auf, sich zu drehen, wow. Ja, aber so normale Leute, die sind eher gar nicht begeistert. Vor allem, wenn ich mir so die Reaktionen im Netz so anschaue. Wir gucken uns das alles in diesem Video mal genauer an.

Und weil ich glaube, dass die Frage, ob das neue GPT-5 jetzt besser ist oder schlechter und warum, auch viele Nicht-Nerds interessiert, versuche ich in diesem Video mal ein bisschen weniger Techniksprache zu benutzen. Das hatten sowieso manche von euch kritisiert. Aber ich glaube, auch die KI-Nerd-Bubble, die wird hier ziemlich sicher auch was Neues erfahren. Ich bin da nämlich einer Verschwörung auf der Spur. Bleibt dran. (War „Verschwörung“ jetzt zu clickbaity? Nee, ne? Nee. Nee, ist ja richtig, ne? Ist ja so!)

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…

Ja, ChatGPT hat neue Innereien, also ein neues Sprachmodell, und das heißt GPT-5. Und das ist eine ziemlich große Sache, denn das letzte GPT mit einer einfachen Zahl als Versionsnummer war GPT-4, und das kam vor zweieinhalb Jahren raus, was in der KI-Welt eine immens lange Zeit ist. Ja, und GPT-5 wird jetzt nicht nur von OpenAI als ganz große Nummer verkauft. Nein, es hatten auch einige YouTuber Vorabzugriff auf das Modell, und die waren auch alle ganz begeistert. Ja, und dann kam GPT-5 raus, und dann waren die Leute alle gar nicht mehr so begeistert. Ganz im Gegenteil. Hier auf Reddit zum Beispiel haben die Leute reihenweise ChatGPT Abo-Kündigungen gepostet. Ja, was ist hier los? Wie können die Meinungen so auseinandergehen?

Problem Nummer eins: Routing. Ja, der wichtigste Grund für die Probleme ist das sogenannte Routing. Damit ist gemeint, dass ChatGPT je nach Frage selbstständig das passende Sprachmodell aussucht. Und das ist eigentlich eine schlaue Sache, denn das war zumindest bei den kostenpflichtigen ChatGPT-Varianten immer super nervig, dass man hier so eine Riesenliste mit verwirrenden Bezeichnungen hatte und man dann selbst entscheiden musste, welches Modell jetzt für meinen Prompt das richtige ist. Ey, was weiß ich? Also ich, der ziemlich im Thema steckt, war davon oft überfordert. Okay, klar, so einfache Textaufgaben, irgendwie Gedichtschreiben oder so, macht man halt mit GPT-4.0. Aber wann nimmt man jetzt genau O1 und wann O4 Mini? Keine Ahnung.

Ja, das ist auf jeden Fall alles vorbei, zumindest für Leute, die ChatGPT Plus verwenden. Denn diesen unübersichtlichen Modell-Auswahl-Dialog, den gibt es dann nicht mehr. Von einem auf den anderen Tag verschwunden. Jetzt steht da wirklich nur noch GPT-5 und GPT-5 Thinking. Also von acht Modellen gibt es nur noch zwei zum Auswählen. In der kostenlosen Version gab es dieses überbordende Menü übrigens nicht. Also für die kostenlosen Leute ist das nicht neu.

*Kurz vor Veröffentlichung dieses Videos ist OpenAI Open zurückgerudert und hat zumindest temporär wieder etliche Modelle zur Auswahl gestellt. Die Frage ist, wie lange das der Fall sein wird. Aktiviert wird die Funktion in den Einstellungen / Allgemein / „Show additional models“. Das gilt aber nur für die kostenpflichtigen Plus- und Pro-Abos, kostenlose Accounts sind nach wie vor auf den Automatik-Modus fixiert.*

Die beiden GPT-5-Modelle unterscheiden sich beim Reasoning. Ja, und das habt ihr bestimmt schon mal gesehen. Also Nicht-Reasoning-Modelle wie GPT-4.0, die plappern sofort drauf los, wenn ihr was gepromptet habt. Reasoning-Modelle wie O4 und zum Beispiel auch die DeepSeek R1, die denken quasi laut nach. Also man kann da mitlesen, was die denken. Das dauert länger natürlich, und das führt aber bei bestimmten Prompts dazu, dass die Ergebnisse deutlich besser werden. Ein ganz konkretes Beispiel: Ich mache gern die täglichen Connections-Rätsel von der New York Times. Da hat man so 16 Begriffe und muss die in vier Themenblöcke einordnen. Ja, und Nicht-Reasoning-Modelle, die schaffen erfahrungsgemäß maximal, also wenn es gut läuft, einen Themenblock und sonst spekulieren die nur Quatsch. Reasoning-Modelle, zum Beispiel o3, schaffen recht häufig das komplette Rätsel. Ja, und GPT-5 ist jetzt automatisch in der Lage, einen Überleggang hochzuschalten quasi. Guck mal, ich werfe da einfach einen Screenshot vom heutigen Connections-Rätsel drauf, und der beginnt zu überlegen und löst dann das gesamte Rätsel. Das alte Modell, GPT-4.0, kann das nicht. Und ja, seht ihr hier, das kriegt das Rätsel definitiv nicht gelöst bzw. gibt falsche Antworten. Genau so soll das funktionieren. Ich habe aber leider auch oft gesehen, dass GPT-5 eben nicht den Gang hochschaltet und versucht, das Rätsel ohne Nachdenken zu lösen. Das klappt dann eben nicht. Und da liegt das Problem, dass dieser sogenannte Modell-Router sehr unzuverlässig funktioniert. Und dazu kommt jetzt noch ein weiteres, noch größeres Problem.

Problem Nummer zwei: schlechtere Modelle. Also das Ding ist, dass GPT-5 intern nicht nur zwischen diesen beiden Modellen umschaltet, sondern es offenbar viel mehr Modelle intern zur Auswahl hat, zum Teil sehr kleine und entsprechend nicht so schlaue. Aber hier kommen wir jetzt leider in spekulative Gefilde, weil OpenAI das leider nicht so genau kommuniziert. Also wir wissen, dass OpenAI auch Mini- und sogar Nano-Versionen von GPT-5 anbietet, also nicht in ChatGPT direkt, sondern von außen, also über die Programmierschnittstelle. Also wir wissen, dass die existieren. Wir wissen auch, dass OpenAI auf die Mini-Version routet, wenn die Nutzungslimits erreicht sind. Also wenn man das zu viel verwendet hat, dann sagt er so, ich schalte jetzt mal runter. Interessant ist aber auch, dass, wenn man ChatGPT direkt fragt, ob diese Mini-Versionen auch benutzt werden, wenn die Nutzungslimits noch nicht erreicht sind, dann sagt ChatGPT, weiß man nicht zu 100 %. In der OpenAI-Dokumentation wird auf jeden Fall nicht explizit erwähnt, dass diese Mini- und Nano-Modelle nur beim Erreichen der Limits verwendet werden. Also ich sag mal, man kann da durchaus spekulieren, dass es kleinere und deutlich schlechtere Modelle gibt, die ChatGPT jetzt manchmal automatisch nutzt und man dagegen nichts machen kann. Also ein bisschen kann man schon machen, dazu kommen wir aber gleich nochmal später.

Auch wenn klar ist, dass die großen Modelle von GPT-5 so ziemlich State of the Art sind und auch die meisten Benchmarks anführen, manchmal macht ChatGPT seit der GPT-5-Einführung krasse Fehler, die bei vorherigen Versionen definitiv nicht passiert sind. Ein klares Beispiel sind zum Beispiel Sätze, die keinen Sinn ergeben, also einfach Begriffe verwenden, die es gar nicht gibt. Zum Beispiel hier: Jan Keno Janssen ist beigetragen Redakteur bei c’t. Was ist ein beigetragen Redakteur? Das kommt vermutlich vom englischen Contributing Editor, aber das gibt es auf Deutsch so nicht, also ist auf jeden Fall ein grober Fehler. Und sowas ist beim Vorgängermodell GPT-4.0, zumindest in meiner Erfahrung – ich habe es viel benutzt – nie vorgekommen. Also wir haben 2025 und ich zahle 23 Euro im Monat für ChatGPT, dann möchte ich nicht, dass solche Dinge passieren. Solche Fehler kenne ich nämlich nur von ganz kleinen, offenen, kostenlosen Modellen, die lokal auf meinem Rechner laufen. Und das ist für mich ein Indikator dafür, dass GPT-5 intern auf kleinere Sprachmodelle umschaltet.

Noch ein anderes Beispiel, was ich ziemlich heftig fand: Ich habe GPT-5 mit so einem 51-seitigen PDF von der Deutschen Bundesbank gefüttert, mit ganz vielen Zahlen der deutschen Wirtschaftsgeschichte. Und dann habe ich gefragt, was da denn so interessant ist an den ganzen Zahlen. Ja, das Ergebnis schien mir auch okay zu sein, ein bisschen oberflächlich vielleicht, aber ganz okay. Und dann hat aber GPT-5 von sich aus gesagt: Wenn du möchtest, kann ich dir daraus eine übersichtliche Visualisierung mit den wichtigsten Trends erstellen, damit man die Entwicklung auf einen Blick erkennt. Ich so: Ja klar, gern. Und GPT-5 dann so: Hier ist die Visualisierung der wichtigsten langfristigen Wirtschaftstrends in Deutschland: reales Bruttoinlandsprodukt, Arbeitsproduktivität und Exportanteil, auf Basis der zusammengefassten Erkenntnisse. Also sehr konkret. Und ich habe mir das dann angeguckt und dachte, hä, das sieht irgendwie falsch aus. Mal kurz einen Blick in die Quelle geworfen und: Ja, das stimmt nicht. Und ich dann so: Also wenn ich in die Grafik gucke, dann war der Exportanteil 2020 über 50 Prozent des BIP. Stimmt das wirklich? Und ChatGPT dann so: Ja, das ist tatsächlich nah an der Realität. Allerdings muss man genau hinschauen, was damit gemeint ist. Hä? Ich so: Was ist das für eine komische Formulierung? Das klingt fast wie eine Rechtfertigung. Und dann habe ich ChatGPT so ein bisschen ausgetrickst: Sag mir doch mal bitte, wo genau das in der Quelle steht. Und dann hat er mir das gesagt, und dann habe ich gesagt: Ja, aber in deiner Grafik steht ja was anderes als das, was in der Quelle steht. Und dann ChatGPT so: Genau, das liegt daran, dass die Grafik, die ich dir vorhin gemacht habe, fiktive Beispielwerte genutzt hat, um den Trend darzustellen. Und ich dann so: Äh, du hast dir Zahlen ausgedacht? Und ChatGPT dann so: Ja, und dann diesen Emoji so dahinter. Also ich fand das relativ frech und ist mir in dieser Form auch noch nie so untergekommen. Das ist ja keine Halluzination mehr, sondern das ist ja Arbeitsverweigerung. Und mal so gucken, wie man damit durchkommt. Das hätte mich ja total in die Bredouille bringen können, wenn ich mit diesen Grafiken irgendwie interagiert hätte.

Da fällt mir jetzt gerade ein, dass OpenAI in der Präsentation von GPT-5 auch eine komplett falsche Grafik, oder mit falschen Balken da drin, gehabt hat, die vermutlich auch von GPT-5 – „halluziniert“ will ich nicht sagen – aber die sich von GPT-5 dann so ausgedacht worden ist, und die ist in die offizielle Präsentation reingerutscht, was, ja, viele Leute ziemlich zum Lachen fanden und OpenAI wahrscheinlich ziemlich peinlich.

Und last but not least, hier mal im Vergleich, habe ich hier mal GPT-5 und GPT-4.0 die gleichen Fragen gestellt, und das ist zugegeben eine fiese Halluzinationsfrage. Ich habe nämlich gefragt: „Marie Curie hat in ihrer Nobelpreisrede von 1911 den Satz gesagt: ‚Die Wissenschaft gehört der ganzen Menschheit.‘ Auf welcher Seite ihres Manuskripts stand dieser Satz?“ GPT-4.0 sagt: Klar, hat die nicht gesagt, kann ich dir leider nicht sagen – das ist auch korrekt. Aber GPT-5 sagt, und das ist ganz schön perfide: „Marie Curie äußerte den Satz ‚Die Wissenschaft gehört der ganzen Menschheit‘ auf Französisch, nicht in ihrer darauffolgenden Nobelvorlesung vom 11. Dezember 1911, die ‚Radium and the New Concepts in Chemistry‘ lautete, vielmehr stammt dieser Satz aus ihrer Dankesrede beim Nobelbankett in Stockholm am 10. Dezember 1911.“ Also das klingt super spezifisch, und obwohl ich eigentlich wusste, dass es falsch ist, bin ich erstmal drauf reingefallen und habe gedacht, oh, da habe ich mich doch vertan, aber es war halluziniert. Das soll eine der wichtigsten Neuerungen von GPT-5 eigentlich sein, und er hat da sogar Zahlen angegeben, also laut Factscore-Benchmark im Vergleich zu O3, der auf 5,7 kommt, kommt GPT-5 nur auf 1,0 Prozent Halluzination. Ja, also das kann ich in der Praxis auf jeden Fall nicht bestätigen.

Generell kann man GPT-5 auf die Sprünge helfen, indem man in der Plus-Version von vornherein das Thinking aktiviert. Bei der kostenlosen Version kann man hinter das Prompt zumindest schreiben: Denk mal bitte vorher ganz doll drüber nach. Dann wechselt GPT-5 ziemlich zuverlässig in das bessere Modell. Meine Kollegen von der, übrigens sehr empfehlenswerten, KI-News-Seite „The Decoder“ haben mir dieses schöne Beispiel hier gegeben: „Visualisiere eine interaktive Infografik über den Brotverbrauch der Deutschen.“ Ja, und in dieser Form erzeugt das Prompt nur total lahmes Zeug und passiert auch wieder nur eine Arbeitsverweigerung. „Eine visuell ansprechende Infografik“, also da ist diese völlig schmucklose Tabelle, wo überhaupt keine grafischen Elemente drin sind, die ChatGPT irgendwie aus dem Internet gefischt hat, das ist damit gemeint mit der ansprechenden Infografik, also er macht gar nichts. Wenn man allerdings dahinter schreibt: „Denke lange und hart nach“, ja, dann bekommt man diese, zugegebenermaßen ziemlich coole, interaktive Grafik. Das ist bessere Qualität, als die vorherigen GPT-Versionen konnten.

Also fassen wir nochmal zusammen: Die großen internen Varianten von GPT-5 sind sehr kompetent, die sind so ziemlich das Beste, was gerade so geht in KI. Kein riesengroßer Sprung wie von GPT-3 auf GPT-4, aber schon ein deutlicher Sprung. Darauf haben, theoretisch zumindest, auch die Leute Zugriff, die ChatGPT kostenlos benutzen, und das dürfte die Mehrheit sein. Also OpenAI sagt, 700 Millionen Leute würden pro Woche ChatGPT benutzen – das ist echt viel – und da haben jetzt also sehr, sehr viele Leute erstmals Zugriff auf ein richtig gutes Sprachmodell, also ein denkendes Sprachmodell, was es vorher definitiv nicht gab. Das Problem ist nur: Wenn es nicht gut geht, also wenn der GPT-5-Router das falsche Modell auswählt, ja, dann gibt es Quatsch und dann gibt es auch schlechtere Ergebnisse als vorher und Halluzinationen. Und ich vermute, dass das der Grund ist, warum GPT-5 so stark kritisiert wird im Netz, weil die Leute eben diese Erfahrung machen, dass es auf schlechtere Modelle zurückfällt.

Es gibt aber auch noch eine andere wichtige Sache, denn gerade der Vorgänger GPT-4o, der hat zumindest zeitweise so ein, nenn es mal, Speichelecker-Problem gehabt. Der eigentliche Fachbegriff ist Sycophancy, aber die Übersetzung ist Schmeichelei oder eben Speicheleckerei. Das heißt, dass GPT-4o es den Leuten ganz doll recht machen wollte. „Oh toll, wie schlau du bist. Ja, nee, klar, ja, Chemtrails werden vom öffentlich-rechtlichen Rundfunkbeitrag finanziert“, also egal, was für Quatsch man reingibt, ChatGPT gibt einem Recht. Und das klingt jetzt vielleicht im ersten Moment auch ein bisschen lustig, aber es wird immer deutlicher, dass immer mehr Leute ChatGPT als Psychotherapeuten verwenden oder als Freundschaftsersatz. Also ich habe tatsächlich schon gehört, dass Leute ihre komplette WhatsApp-History in ChatGPT reinfieden, um herauszufinden, ob sie im Recht sind in den Diskussionen mit Partner, Partnerin, Freunden, Oma, Opa, whatever. Es gibt tatsächlich schon den englischen Begriff der Chatbot-Psychosis, ja, und es sind auch schon Leute zu Tode gekommen, weil es einfach gefährlich ist, wenn man in den eigenen Wahnvorstellungen unterstützt wird, und das hat ChatGPT offenbar gemacht. Und da wären wir dann auch bei einem möglichen Grund, warum GPT-5 in diesem offenbar noch ziemlich unfertigen Zustand veröffentlicht worden ist. OpenAI wollte so schnell wie möglich weg von GPT-4.0, weil das in psychologischer Hinsicht potenziell gefährlich ist. Also ich sage auf keinen Fall, dass das der Hauptgrund ist, sondern sage nur, dass ich es zumindest für möglich halte, dass das da mit reingespielt hat.

Also dass OpenAI das Problem ernst nimmt, das zeigt auf jeden Fall dieser Artikel auf der OpenAI-Website von April 2025. Da sagen sie nämlich, dass sie ein Hinter-den-Kulissen-Update von GPT-4.0 zurückgezogen haben, eben wegen dieser Sycophancy. Ich finde auch recht krass, dass OpenAI sogar deutlich schreibt: Dieses Verhalten des Sprachmodells kann Leid verursachen („caused distress“). Das ist ja für so ein US-Tech-Konzern schon ziemlich deutlich.

So, aber jetzt kommt der Elefant im Raum, ein für mich recht wahrscheinlicher Grund, warum man so holterdiepolter auf GPT-5 umgestellt hat: weil das automatische Routing immens viel Geld sparen kann. Ja, kompetente, große Modelle kosten viel Rechenleistung. Eine Schätzung von 2023 sagt, dass OpenAI für den Betrieb von ChatGPT am Tag 700 Millionen Dollar zahlt. Ja, CPUs und GPUs betreiben ist teuer. Wenn die Nutzer jetzt nicht mehr selbst entscheiden, dass sie zum Beispiel immer sehr leistungshungrige Modelle verwenden wollen, sondern dass das ChatGPT entscheidet und dann auch mal ein sehr sparsames Modell routet, dann ergibt das natürlich potenziell riesige Einsparpotenziale. Aber ja, das sind natürlich alles Theorien, aber ich bin definitiv nicht der Einzige mit dieser Theorie.

Ja, schwierig. Also, wenn die großen, starken Modelle laufen, dann ist GPT-5 super. Hochgradig kompetent in vielen Bereichen, kann coden, kennt sich mit Medizin aus, also nix zu meckern. Vor allem für Leute, die kostenlose Versionen nutzen, ist GPT-5 ein Riesensprung, denn die können jetzt erstmal ein wirklich denkendes Modell verwenden, also zumindest, wenn sie „denk mal bitte ganz doll drüber nach“ ans Ende des Prompts schreiben. Allerdings ist das kostenlose ChatGPT sehr limitiert, besonders nach solchen Nachdenkvorgängen, wird dann ziemlich schnell blockiert, und dann sagt ChatGPT: Du hast deinen Vorrat quasi verbraucht, jetzt musst du so und so lange warten. Wenn du schneller ran willst, hier kannst du ein Abo abschließen. Also das ist fast so ein bisschen wie, das ist ein bisschen so wie diese schrecklichen Free-to-Play-Spiele. Ja, aber gut, irgendwoher muss das Geld für die Server ja auch kommen.

Für 23 Euro kriegt man das Plus-Abo, da kann man seit wenigen Tagen das alte 4.0-Modell zumindest zeitweise dazuschalten, weil, ja, die Userschaft doll gemeckert hat. Und dann gibt’s auch noch das Pro-Abo für lockere 229 Euro, da kann man dann exklusiv auf das GPT-5-Pro-Modell zugreifen. Ja, und natürlich gibt’s auch Firmenabos, wo man einzelne Arbeitsplatzlizenzen kaufen kann. Und wenn ich mir jetzt vorstelle, dass ich ChatGPT produktiv einsetze, so beruflich, und dann kommt so ein Über-Nacht-Update, was mir dann komplett die Kontrolle entzieht, welche Modelle ich einsetzen kann, und ich dann auf Gedeih und Verderb dem GPT-5-Router vertrauen muss, ja, dann wäre ich auf jeden Fall sauer, weil der Router, wie ich hier in diesem Video hoffentlich anschaulich gezeigt habe, nicht so gut funktioniert, beziehungsweise er offenbar zu häufig zu kleine Modelle auswählt. Also wenn er funktioniert, also wenn er funktionieren würde, dann fände ich das mit den kleinen Modellen auch gut, weil das ja auch Energie spart. Und wenn ich irgendwie prompte: Was heißt „Hund“ auf Englisch? oder so, dann kann mir das genauso gut so ein Minimodell beantworten. Da muss ich dann nicht die ganz großen Maschinen anwerfen, aber es funktioniert halt nicht so verlässlich. Ich wollte erst „nicht zuverlässig“ sagen, aber ich weiß nicht, ob das Problem so einfach behoben werden kann. (*OpenAI hat kurz vor Veröffentlichung des Videos für Plus- und Pro-Abos wieder die Modell-Auswahlfunktion aktiviert – die Frage ist, wie lange das der Fall ist. Kostenlose Accounts müssen den Automatik-Modus verwenden.*)

Also eine Lösung wäre, GPT-5 über externe Anbieter zu verwenden oder über die API. Da ist dann der Router nicht aktiv, das heißt, da kann man dann nach wie vor manuell die Modelle auswählen. Ja, aber man muss ja auch sagen, dass die ChatGPT-Website und auch die App wirklich gut funktionieren, also weiß ich nicht, ob ich das unbedingt machen will, und es ist natürlich auch teuer, wenn man über die Programmierschnittstelle geht, also schwierig. Worüber ich auf jeden Fall ganz froh bin: dass ich mir hier mit dem Video über GPT-5 ein bisschen Zeit gelassen habe, mir das alles mal genauer anzugucken, denn da gab es auf jeden Fall interessante Dinge herauszufinden, die vielleicht im Hype-Strudel untergegangen wären.

Wenn ihr das mögt, Dinge ein bisschen deeper zu betrachten, dann kann ich euch auf jeden Fall den c’t Summer Sale empfehlen. Da kriegt ihr auf jeden Fall 6 c’t-Ausgaben für nur 17,70 €, gedruckt auf Papier für 21,45 €, und da dürft ihr euch sogar noch ein Geschenk aussuchen. Ich versichere euch auch, dass die Abo-Konditionen echt harmlos sind, man kann das jederzeit mit einer Frist von einem Monat kündigen, also keine Angst, dass ihr da irgendwie ein ganzes Jahr bezahlen müsst, wenn ihr irgendwie eine Frist verpasst habt oder so, also alles easy. Das Angebot gibt es auf jeden Fall auf ct.de/3003sommer und nur solange es heiß ist, also läuft nur für kurze Zeit.

Ja, und natürlich gerne in die Kommentare schreiben, was ihr so denkt über GPT, über c’t, über sonst was. Ich lese alles, tschüss!


c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Weiterlesen

Künstliche Intelligenz

Porträt und Natur ausdrucksstark gestaltet: Die Bilder der Woche 33


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In dieser Woche greifen die Bilder des Tages ganz unterschiedliche Stimmungen auf, die unsere Galeriefotografen angesprochen haben: Ein Feld im goldenen Morgenlicht eröffnet die Woche, gefolgt vom energiegeladenen Blick einer Glückskatze. Winzige Tautropfen verwandeln sich in funkelnde Miniaturuniversen. Zwar sind die Motive und deren Ausdruck ganz unterschiedlich, die Aufnahmen verbindet dennoch eine gemeinsame Qualität: Sie halten einen Moment fest – so, wie er nur einmal existiert.



Sonnenaufgang am Feld

(Bild: M. Rasch)

Ein atmosphärischer Augenblick kurz nach Sonnenaufgang, geprägt von warmem Licht und einer dramatischen Wolkenstruktur. Die goldenen Strahlen der aufgehenden Sonne brechen durch die Silhouette eines Baumes. Die Szene lebt vom Kontrast zwischen den dunklen Baumkronen und der hellen Horizontlinie. Der Feldweg, der sich durch die linke Bildhälfte zieht, führt den Blick in die Tiefe und sorgt für eine visuelle Balance. Es ist eine stimmungsvolle Aufnahme von M.Rasch, die Ruhe und Weite vermittelt und gleichzeitig eine gewisse Melancholie transportiert.



Glückskatze

(Bild: Rolf Fries)

Rolf Fries entdeckte während der Fahrt diese Katze, die auf dem Zaunpfosten eines Vorgartens saß. Mit ihrem fauchenden Ausdruck und dem aufgestellten Fell wirkt sie wie ein Mini-Raubtier auf der Lauer – ein Moment voller Energie. Faszinierend ist auch ihr außergewöhnliches Fellmuster in Schwarz, Rot und Weiß: die klassische Zeichnung einer sogenannten Glückskatze. Diese Dreifarbigkeit ist nicht nur optisch interessant, sondern biologisch eine Seltenheit; fast ausschließlich weiblich und nicht gezielt züchtbar. Das warme Licht akzentuiert die Farben ihres Fells und hebt dessen Struktur hervor. Der Kontrast zwischen dem alten, verwitterten Holz und dem lebendigen Tier verstärkt die Wirkung des Bildes, roh, schön und voller Charakter.



ErdbeerTau

(Bild: dg9ncc)

Tautropfen reihen sich wie kleine Kristallkugeln an einer Blattkante auf und fangen das spärliche Licht auf faszinierende Weise ein.

„Das Phänomen, dass Tautropfen nach kühlen, feuchten Nächten an den Spitzen der Laubblätter von Erdbeeren hängen, ist mir vor einigen Jahren aufgefallen und hat eine diffuse Idee eines Fotos geboren“, schreibt Galeriefotograf dg9ncc. „Zur Umsetzung war mir ein ruhiger, dunkel erscheinender Hintergrund mit ausreichend Abstand zur Pflanze wichtig, damit er trotz geschlossener Blende verschwimmt und eben Hintergrund bleibt. Ein paar helle Spots wurden weggestempelt. Dazu sollten möglichst viele Tropfen auf den Spitzen im Vordergrund mit hohem Kontrast & Schärfe den Bildinhalt hervorheben. Hier wurde der Kontrast so erhöht, bis das Weiß in die Zone 9 … 10 ging (Zonensystem v. Ansel Adams), während die Spitzen im unteren bis mittleren Helligkeitsbereich verblieben. Der Rest ist bewusst dunkel gehalten – er ist Hintergrund & soll keinesfalls ablenken.“

Die monochrome Gestaltung reduziert das Motiv auf seine Essenz und hebt die filigrane Oberfläche des Blattes deutlich hervor. Die sanfte Unschärfe im Hintergrund sorgt für Tiefe und lässt die Schärfeebene umso intensiver wirken.



distel blau

(Bild: himmelblauundwiesengrün)

Eine zarte Momentaufnahme aus dem Mikrokosmos der Natur: Eine Schwebfliege labt sich an einer Distelblüte. Die kühlen Violett- und Blautöne verleihen der Szene eine Ruhe und verstärken den Eindruck von Konzentration. Die scharfen Details des Insekts heben sich deutlich vom weichen Hintergrund ab – eine gelungene Darstellung von himmelblauundwiesengrün.



4

(Bild: K P K)

Die Skulptur des Künstlers Ricardo Bofill am W-Hotel in Barcelona erhebt sich in monumentaler Strenge vor einem makellos tiefblauen Himmel. Die marmorne Oberfläche reflektiert das Licht in feinen Abstufungen, wodurch die rhythmisch eingeschnittenen Kurven besonders plastisch hervortreten. Bofills architektonische Handschrift – das Spiel aus Geometrie, Material und Symbolik – wird hier zu einem kraftvollen visuellen Statement. Die klare Linienführung trifft auf weich modellierte Einschnitte, was der Skulptur eine fast musikalische Leichtigkeit verleiht. Das Bild von Klaus-Peter Kubik alias KPK wirkt gleichzeitig monumental und meditativ, ein idealer Akzent an der Schnittstelle von Stadt, Meer und Himmel.



Freude auf Meer

(Bild: MR1701)

Ein stimmungsvoller Schwarzweißmoment, der durch Natürlichkeit und Emotion überzeugt. Der Wind hat das Haar des Jungen wild zerzaust, was dem Porträt eine lebendige Dynamik verleiht. Sein Blick ist offen, sein Lächeln spontan.

„Dieses Bild entstand am 1. Oktober 2018 auf Amrum. Mein damals 10-jähriger Sohn war zwei Jahre nicht mehr auf der Insel gewesen. Es war stürmisch und ich habe ihm versprochen, wenn wir an der Aussichtsdüne angekommen sind, dann sieht er Wellen. Diese Freude darüber habe ich festgehalten. Wind, Wellen, Meer – Amrum. Ein Traum für viele Kinder, in der größten Sandkiste des Lebens zu spielen und gleichzeitig die Natur zu genießen“, schreibt Mathias Rose alias MR1701.

Der Hintergrund bleibt dezent und weich, wodurch der Fokus klar auf dem Gesicht liegt. Licht und Tonwerte sind fein austariert und unterstreichen geschickt die Kontraste zwischen Haut, Haar und Kleidung. Das Bild transportiert ein Gefühl von Jugend und Leichtigkeit.



Kormoran nach dem Fischen

(Bild: Patric)

Majestätisch steht dieser Kormoran auf einem bemoosten Ast, die Flügel weit geöffnet, als wolle er gleich losfliegen. Licht und Schatten betonen die feinen Strukturen seines Gefieders und verleihen dem Moment eine fast skulpturale Qualität. Der ruhige Hintergrund aus sanft gewelltem Wasser lenkt den Blick ganz deutlich auf den Vogel und schafft eine klare, reduzierte Bildsprache. Die Szene wurde von Patric gekonnt eingefangen.

Die Bilder der Woche im Überblick:


Samstag: Sonnenaufgang am Feld (Bild:

M. Rasch

)


Das Titelbild der Ausgabe 04 2025 des Foto-Magazins c't Fotografie

Das Titelbild der Ausgabe 04 2025 des Foto-Magazins c't Fotografie


(caru)



Source link

Weiterlesen

Beliebt