Connect with us

Künstliche Intelligenz

GPT-5.4 ist da: Native Computer-Steuerung und bessere Effizienz für Profis


Kaum zwei Tage nach dem Start von GPT-5.3 Instant – OpenAIs Reaktion auf das von vielen Nutzern als zu geschwätzig empfundene GPT-5.2, welches praktisch gleichzeitig mit Anthropic Opus 4.6 erschien – legt das Unternehmen erneut nach: GPT-5.4 ist da, und dieses Mal will OpenAI gleich mehrere Fronten auf einmal bespielen.

Weiterlesen nach der Anzeige

GPT-5.4 soll kein inkrementelles Update sein, sondern bislang getrennte Modell-Linien zusammenbringen – Reasoning, Coding und Wissensarbeit in einem einzigen Frontier-Modell. Laut OpenAI löst GPT-5.4 dabei auch GPT-5.3-Codex-Spark als empfohlenes Modell für Entwickler ab.

Das wohl auffälligste Novum: GPT-5.4 ist das erste allgemeine OpenAI-Modell mit nativen Computer-Use-Fähigkeiten. Agenten können damit eigenständig Desktop-Umgebungen navigieren, Maus und Tastatur steuern und komplexe Arbeitsabläufe über mehrere Anwendungen hinweg ausführen – ohne spezialisiertes Zusatzmodell.

Auf OSWorld-Verified, dem Standard-Benchmark für agentische Desktop-Steuerung per Screenshot, erreicht GPT-5.4 75 Prozent und übertrifft damit sowohl den menschlichen Referenzwert von 72,4 Prozent als auch Opus 4.6, das bei seiner Veröffentlichung 72,7 Prozent erzielte und damit damals die Messlatte gesetzt hatte. GPT-5.2 lag noch bei 47,3 Prozent.

Ähnlich das Bild bei BrowseComp, dem Benchmark für hartnäckige mehrstufige Web-Recherche: Opus 4.6 hatte hier mit 84,0 Prozent einen klaren Vorsprung gegenüber GPT-5.2 (65,8 Prozent) markiert. GPT-5.4 erreicht nun 82,7 Prozent – knapp dahinter, aber die Pro-Variante übertrifft Opus 4.6 mit 89,3 Prozent deutlich.

Auf dem GDPval-Benchmark, der Agenten-Leistungen in 44 Berufsfeldern misst, hatte Opus 4.6 bei seiner Veröffentlichung GPT-5.2 um rund 144 Elo-Punkte übertroffen – eine der auffälligsten Lücken zwischen den Modellen. GPT-5.4 schließt diese jetzt: Mit einer Gewinnrate von 83 Prozent gegenüber Branchenexperten übertrifft es GPT-5.2s 70,9 Prozent deutlich. Ein direkter Elo-Vergleich mit Opus 4.6 steht noch aus, da beide Unternehmen leicht unterschiedliche GDPval-Varianten berichten.

Weiterlesen nach der Anzeige

Besonders bei Tabellenkalkulationen zeigt sich der Fortschritt: Auf einem internen Benchmark für Investment-Banking-Modellierungsaufgaben erzielt GPT-5.4 87,3 Prozent gegenüber 68,4 Prozent bei GPT-5.2. OpenAI gibt zudem an, die Halluzinationsrate deutlich gesenkt zu haben: Einzelne Aussagen sollen 33 Prozent seltener falsch sein als bei GPT-5.2, vollständige Antworten 18 Prozent seltener Fehler enthalten.

Auf ARC-AGI-2, dem Benchmark für abstrakte Mustererkennung, setzt GPT-5.4 die deutlichsten Ausrufezeichen: GPT-5.4 in der Pro-Variante erreicht 83,3 Prozent, gefolgt von Googles Gemini 3.1 Pro (Preview) mit 77,1 Prozent, GPT-5.4 in der Standard-Variante mit 73,3 Prozent und Opus 4.6 mit 68,8 Prozent.

Auf Humanity’s Last Exam – einem multidisziplinären Reasoning-Test aus Wissenschaft, Recht und Philosophie – kommt GPT-5.4 laut OpenAI auf 52,1 Prozent, die Pro-Variante auf 58,7 Prozent. Gemini 3.1 Pro liegt je nach Variante bei 51,4 respektive 44,4 Prozent, Opus 4.6 nur bei etwa 35 Prozent.

Beim Coding-Benchmark Terminal-Bench 2.0 hatte Opus 4.6 zum Zeitpunkt seiner Veröffentlichung mit 65,4 Prozent alle anderen Frontier-Modelle angeführt. GPT-5.3-Codex hatte die Spitzenposition mit 77,3 Prozent übernommen und liegt damit knapp über GPT-5.4, das 75,1 Prozent erreicht.

Beide Modelle bieten jetzt ein 1-Millionen-Token-Kontextfenster – aber mit unterschiedlichen Ansätzen. OpenAI betont ausdrücklich, dass dies für Codex eine experimentelle Funktion ist, die nicht standardmäßig aktiviert ist. Auch bei Opus 4.6 gilt laut unabhängigen Analysen: Größerer Kontext bedeutet nicht automatisch bessere Ergebnisse – die Prefill-Latenz kann bei 1M Token über zwei Minuten betragen, bevor das erste Output-Token erscheint.

In der Hacker-News-Diskussion bestätigen Nutzer das aus eigener Erfahrung: Mehrere berichten, dass Codex bei vollem Kontext-Fenster den Faden verliere. Als vielversprechendsten Anwendungsfall nennen sie das Reverse Engineering von Code, bei dem große Mengen dekompilierten Codes gleichzeitig analysiert werden müssen. Wichtig für Entwickler: Prompts mit mehr als 272.000 Input-Token werden zum doppelten Input-Preis und 1,5-fachen Output-Preis für die gesamte Session abgerechnet.

Neu eingeführt mit GPT-5.4 wird „Tool Search“. Statt alle Tool-Definitionen von Anfang an in den Prompt zu laden, ruft GPT-5.4 sie bei Bedarf dynamisch ab. In Tests mit 36 MCP-Servern und 250 Aufgaben reduzierte das den Token-Verbrauch um 47 Prozent bei gleicher Genauigkeit. Das ist ein erheblicher Kostenvorteil für tool-intensive Anwendungen.

GPT-5.4 Thinking zeigt in ChatGPT künftig einen Vorab-Plan seiner Denkschritte an. Nutzer können während der Antwortgenerierung eingreifen und die Richtung korrigieren, ohne von vorne anfangen zu müssen. Das Modell soll zudem bei langen Aufgaben besser den Kontext früherer Gesprächsschritte im Blick behalten.

GPT-5.4 Thinking steht ab sofort für Plus-, Team- und Pro-Nutzer in ChatGPT bereit und löst GPT-5.2 Thinking ab. GPT-5.2 Thinking bleibt noch drei Monate als Legacy-Option verfügbar und wird am 5. Juni 2026 abgeschaltet. In der API ist das Modell unter gpt-5.4 verfügbar, die Pro-Variante als gpt-5.4-pro.

Beim Preis hat OpenAI gegenüber Anthropic einen Vorteil: Opus 4.6 kostet 5 US-Dollar pro Million Input-Token und 25 US-Dollar pro Million Output-Token, GPT-5.4 liegt mit 2,50 US-Dollar und 15 US-Dollar deutlich darunter. Hinzu kommt, dass Anthropic den Kontext-Aufpreis bereits ab 200.000 Token erhebt, OpenAI erst ab 272.000 Token. OpenAI argumentiert zudem, die höhere Token-Effizienz von GPT-5.4 reduziere den tatsächlichen Verbrauch zusätzlich.

OpenAI und Anthropic überbieten sich derzeit in einem Tempo, das selbst Branchenbeobachter kaum noch mitverfolgen können. Während Anthropic-Chef Dario Amodei mit dem Pentagon über KI-Einsatz in autonomen Waffensystemen streitet – und OpenAI in die dadurch entstandene Vertragslücke springt –, liefern sich beide Unternehmen parallel ein Benchmark-Gefecht, bei dem die Zahlen schneller steigen als das Verständnis dafür, was sie bedeuten.

Lesen Sie auch


(vza)



Source link

Künstliche Intelligenz

Zahlen, bitte! 10957 Tage heise online — ein paar Zahlen zum Jubiläum


30 Jahre heise online: Das sind 10.957 Tage voller neugieriger und kritischer Blicke auf den technischen Fortschritt – immer mit dem Ziel, den Leser journalistisch umfassend und kontinuierlich über die neuesten Entwicklungen zu informieren.

Weiterlesen nach der Anzeige

Im Fokus waren nicht nur die technischen Fakten, sondern auch stets die Folgen für die Gesellschaft durch den technischen Fortschritt. Das ging vom Aufkommen des World Wide Webs über die Entwicklung einer permanenten Online-Gesellschaft durch Smartphones, den daraus resultierenden Anstieg des Datenhungers von Sicherheitsbehörden und Unternehmen bis hin zur zunehmenden Nutzung von KI. In den vergangenen 30 Jahren wirkte sich das alles nachhaltig auf die Gesellschaft aus – und nicht immer im positiven Sinn.


Bitte Zahlen

Bitte Zahlen

In dieser Rubrik stellen wir immer dienstags verblüffende, beeindruckende, informative und witzige Zahlen aus den Bereichen IT, Wissenschaft, Kunst, Wirtschaft, Politik und natürlich der Mathematik vor.

In unserer Zahlen, bitte!-Kolumne haben wir ein paar Zahlen zu den vergangenen drei Dekaden heise online zusammengetragen.

Dank Mailbox-System waren die Redaktionen bereits seit Ende 1988 per E-Mail erreichbar. Bereits zur CeBIT 1994 schuf die Zeitschrift iX einen experimentellen Webserver: Anfangs war es ein Sparc-Clone mit 40 Megabyte RAM, der von der Redaktion „Opus40“ getauft wurde. Anhand der Zugriffe, die teilweise das Versenden von E-Mails verzögerten, merkten die Macher, dass darin die Zukunft liegen könnte. Im März 1996 wurden etwa 17.000 Hits auf ix.de gemessen, und das, obwohl der Newsticker-Betrieb noch gar nicht angelaufen war. Da war der erste Server bereits Geschichte.

Zur CeBIT 96 erwarb der Verlag die Domain heise.de und startete am 17. April mit heise online neben dem Online-Angebot der verschiedenen Zeitschriften c’t, iX, ELRAD und Gateway der heise-Newsticker. Das Netzmagazin Telepolis kam im Juli 1996 dazu. Wie goldrichtig heise online zu der Zeit lag, merkte die Redaktion, als die „Informationsgesellschaft zur Feststellung der Verbreitung von Werbeträgern“ (IVW) im November 1997 für Online-Angebote die erzielten Visits und Page Impressions erstmals auswertete.

Mit 1.292.036 monatlichen Pageviews sprang heise online auf Anhieb auf Platz 3 der dort gemeldeten Websites: Nur Focus Online und das Fußballportal Ran Online verzeichneten mehr Homepage-Zugriffe. In einer Zeit, in der die Telekommunikationsfirmen jede genutzte Online-Minute in Rechnung stellten, und mit 56K-Modems das Surfen zum Geduldsspiel avancierte, war der Erfolg sicher keine Selbstverständlichkeit.

Weiterlesen nach der Anzeige

Dreißig Jahre später sind es über 44 Millionen Visits: heise online ist für viele bis heute der erste Anlaufpunkt, wenn man sich auf den neuesten IT-Stand bringen will. Fing der Newsticker mit wenigen Meldungen am Tag an, sind es heutzutage bis zu 60 Meldungen täglich aus IT, Technik, Security, Wissenschaft und Gesellschaft.

So vielfältig wie sich das Netz entwickelt hat, sind mittlerweile auch die Angebote auf heise online: Seit 2019 gibts es das Digitalangebot heise+, was neben Artikeln der Redaktionen von c’t, iX, Make, Mac & i und c’t Fotografie zusätzlich eigene Exklusivinhalte bietet. Die werden gern gelesen: Durchschnittlich 17 Minuten täglich nutzen heise+-Lesende das Angebot und heise online. Zum Jubiläum gibt es bis zum 24. April 30 % Rabatt auf das heise+ Lifetime Abo. 


Spartanische Anfänge…
(Bild: heise online / Wayback Machine)

Für die kompakte Wissenszusammenfassung werden verschiedene Newsletter von heise online mittlerweile über 1,5 Millionen Mal pro Monat an über 43.000 registrierte Empfänger versendet.

Um auf dem neuesten Stand zu bleiben, muss man nicht nur lesen. Die heise Podcasts wie „Kurz informiert“, „KI-Update“ „Bits & Böses“ und viele weitere erreichen über 3 Millionen Abrufe im Monat. Der seit 2011 existierende YouTube-Account heise & c’t kommt auf fast 180.000 Abonnenten. Der Ableger c’t 3003 peilt sogar 250.000 Abonnenten an. Die Kurzvideos von heise Tipps & Tricks sehen bei TikTok mittlerweile fast 145.000 Follower.

Waren sie vorher in Mailboxen organisiert, kommen unsere Leser seit 1999 direkt unter den Artikeln zu Wort. Kurz vor der Jahrtausendwende startete das heise-Forum. Seitdem begleiten unsere Leser unsere Artikel als wertvolle Tippgeber, sparen nicht mit Lob oder Kritik und Hinweisen und begleiten die Themen.

Das sieht man auch in den Zahlen: Insgesamt wurden in den vergangenen 30 Jahren über 46 Millionen Forenbeiträge verfasst. Neben begleitenden Kommentaren zu den Themen wurden unsere Nutzer auch aktiv: Mit der im Jahr 2001 gegründeten „Stop1984“-Initiative setzten sich (nicht nur) Forenuser gegen einen überbordenden Überwachungsstaat ein. Die Initiative wurde 2008 aufgelöst. Regelrechte Partystimmung herrschte im Jahr 2005 im Forum, als heise online vermeldete, dass die EU die Softwarepatentrichtlinie beerdigte. Redakteur Michael Wilde sah sich angesichts der tausenden Beiträge genötigt, die Beteiligten der „Flaggenparade“ zur Mäßigung aufzurufen.

Mit über 11.000 Kommentaren war der Artikel zwar schon rekordverdächtig, die meisten Reaktionen zog aber 2007 die Verurteilung des IT-Anwalts Günter Freiherr von Gravenreuth mit über 14.000 Kommentaren nach sich. Wir haben bis heute eine starke und unverzichtbare Online-Community die in mehreren Tausend Beiträgen am Tag unsere Berichterstattung begleitet.

Und so blicken wir in die Zukunft. Die KI-Revolution ist im vollen Gange, und es ist nicht abzusehen, wo die Reise hingeht – genauso wie es vor dreißig Jahren nicht absehbar war, wie sich die heutige Gegenwart gestalten würde. Eins ist aber gewiss: heise online begleitet die Entwicklung weiterhin kritisch und unabhängig.


(mawi)





Source link

Weiterlesen

Künstliche Intelligenz

OrcaSlicer 2.3.2 – Massives Update


OrcaSlicer veröffentlicht seine Updates üblicherweise in so hoher Frequenz, sodass man sich daran gewöhnt hat, dass nicht immer „Killer-Features“ enthalten sind. In der neuen Version 2.3.2 hat sich jedoch einiges geändert und wurde ergänzt.

Weiterlesen nach der Anzeige

Hinweis: Es gibt einige inoffizielle Webseiten, die OrcaSlicer anbieten – die oben verlinkte Seite ist die offizielle Quelle. Lade dir den Installer herunter oder nutze die portable Version, falls du die alte Installation behalten möchtest oder musst.



Saubere und stabile Infills auch mit Multi-Line-Infill.

(Bild: OrcaSlicer)

Mit Multiline-Infill kann man Druckobjekte stabiler machen, wenn man die Wandstärke nicht erhöhen will oder kann. Das Multiline-Infill ist sauberer geworden und weist weniger Überschneidungen auf (dank Clipper2-Bibliothek). Zudem ist es besser mit dem Hauptobjekt verbunden.

Weiterlesen nach der Anzeige

Die Flussrate lässt sich jetzt pro Feature statt nur pro Filament einstellen – etwa eine andere Flow-Rate für Infill als für Wände. Die Option findest du unter „Set other flow ratios“ im Quality-Tab.



Feintuning der Flowrate in allen Bereichen eines Druckobjekts.

(Bild: OrcaSlicer)

Das Brim arbeitet nun zuverlässiger mit der „Elephant Foot Compensation“ zusammen. Sich ablösende, kaum nutzbringende Brims gehören damit weitgehend der Vergangenheit an. Elephant-Foot-Compensation verhindert die Überextrusion des ersten Layers auf dem Druckbett. Dieser Faktor wird nun bei der Erzeugung von Brims einberechnet.



Endlich keine sich selbst lösenden Brims mehr.

(Bild: OrcaSlicer)

Unter Preferences Control Slicing lässt sich „Auto slice after changes“ aktivieren. Die Wartezeit ist anpassbar, sodass man mehrere Änderungen vornehmen kann, bevor der Slicer loslegt. Da ein laufender Slicing-Vorgang aber bei neuen Parametern abgebrochen und neu gestartet wird, ist es auf schnellen Rechnern kaum nötig, den Wert hochzusetzen. Ein Feature, das ich lange vermisst habe, seit ich vom PrusaSlicer gewechselt bin.

Der Drucker-Tab ist jetzt grafischer und übersichtlicher. Der Düsendurchmesser lässt sich jetzt getrennt vom Drucker einstellen.



Grafisch aufbereite und übersichtlich angeordnete Druckerauswahl.

Statt eigenständiger Kopien (Clones) lassen sich Objekte jetzt auch als „Instances“ vervielfältigen. Ändert man eine Instanz, folgen die anderen automatisch – sei es bei Filament-Zuordnungen für Multifilament-Druck oder anderen Einstellungen. Das spart auch beim Slicing Zeit, da nur eine Instanz berechnet werden muss. Die Anzahl der Instanzen ist einstellbar, oder man füllt direkt das ganze Druckbett.

Zusätzlich werden inzwischen Kollisionen zwischen (besonders Instanzierten Objekten) besser erkannt und so behandelt, dass keine Fehldrucke entstehen.

Für farbige bzw. aus mehreren Filamentsorten zusammengesetzte Drucke auf Materialwechslern und Toolchangern wurden die Wipe-Tower-Verbesserungen aus Bambu Studio zu Orca portiert:

  • Stabilere Wipe Tower ergeben weniger Fehldrucke durch einstürzende Wipetower
  • Bessere Layerhaftung durch smarteres Vorheizen und Kühlen der Düse beim Filamentwechsel
  • Höhere Druckgeschwindigkeit

Die Einstellungen müssen in den jeweiligen Druckprofilen aktiviert werden:

  • Multimaterial -> Prime Tower -> Enable tower interface features
  • Cool down from interface boost during prime tower

Die Art des Wipe Towers lässt sich inzwischen auch direkt im Druckerprofil auswählen.

Wer das Beste aus seinen Druckern und Filamenten herausholen möchte, sollte beides kalibrieren. In Version 2.3.2 sind die Kalibrierungs-Tools jetzt in der richtigen Reihenfolge im Menü sortiert. Außerdem werden die Firmwares für Input Shaper, Cornering/Jerk erkannt und entsprechend ausgewählt.

Im Drucker-Konfigurator werden nun zusätzliche Materialwechsel-Einheiten und Toolheads unterstützt. Diese lassen sich direkt aus dem Slicer steuern, und die Filamentbelegung der Toolheads ist interaktiv anpassbar. Dies ist noch als experimentell markiert, da es sich teilweise um schlecht dokumentierte Hardware handelt und die Hersteller natürlich eher ihr Ökosystem unterstützen.

Orca 2.3.2 unterstützt jetzt auch die neueren Bambu-Lab-Modelle wie H2D (Pro) und H2S. Außerdem gibt es weitere spezielle Verbesserungen für Bambulab-Nutzer.

Viele zusätzliche Änderungen und Verbesserungen mit Beispielbildern findet man im ausführlichen Changelog: OrcaSlicer 2.3.2 Beta Changelog

In der Make 1/26 hatten wir einen ausführlichen Artikel über Tipps&Tricks für Slicer und einen Artikel über Orca Slicer und warum er immer beliebter wird.


(caw)



Source link

Weiterlesen

Künstliche Intelligenz

Kapazitäten ausgereizt? Microsoft lehnt Neukunden für GitHub Copilot ab


Microsoft hat die Registrierung bei GitHub Copilot pausiert. Neukunden können sich somit nicht mehr für die Tarife Pro, Pro+ und Student anmelden. Gleichzeitig verschärfte das US-Unternehmen Tokenlimits und kündigte die Entfernung von Claude Opus 4.5 und 4.6 aus dem Pro+-Tarif an. Opus 4.7 bleibt im Pro+-Tarif hingegen verfügbar. Aus dem Pro-Tarif wurden alle Opus-Modelle sofort entfernt. Die kostenfreie Stufe und Enterprise-Abonnements sind von den Änderungen derzeit nicht betroffen.

Weiterlesen nach der Anzeige

Hintergrund der Änderungen sei ein unerwartet hoher Bedarf an Rechenleistung. „Lang andauernde, parallelisierte Sitzungen beanspruchen regelmäßig weitaus mehr Ressourcen als geplant. Die ursprünglichen Strukturen waren dafür nicht ausgelegt“, schreibt Joe Binder, VP of Product, im GitHub-Blog. Inzwischen übernähmen KI-Agenten mehr Aufgaben und Kunden stießen an ihre Nutzungsgrenzen. Ohne Einschränkungen verschlechtere sich die Servicequalität für Bestandskunden.

Die Nutzungsgrenzen des Pro+-Abonnements sind mehr als fünfmal so hoch wie im Pro-Tarif. Dieses Limit ist von der Anzahl der Premiumanfragen unabhängig. Stattdessen handelt es sich um tokenbasierte Beschränkungen innerhalb eines festgelegten Zeitfensters. Somit können Kunden noch über ungenutzte Premiumanfragen verfügen, aber bereits die Nutzungsgrenzen erreicht haben.

Microsoft unterscheidet bei den Nutzungslimits von GitHub Copilot zwischen zwei Zeitfenstern, die sich nach dem Tokenverbrauch und einem Multiplikator richten, der bei rechenintensiven Modellen entsprechend höher ist. Das erste Zeitfenster bezieht sich auf die jeweilige Session. Reizen Kunden ihr Limit aus, müssen sie warten, bis sich das Nutzungsfenster zurücksetzt, um Copilot wieder verwenden zu können.

Das zweite Zeitfenster ist das wöchentliche Limit, das eine Obergrenze für die nutzbaren Token darstellt. Damit will Microsoft parallelisierte Anfragen beschränken, die oft lange laufen und hohe Kosten verursachen. Künftig wolle das Unternehmen die Limits anpassen, um ein Gleichgewicht zwischen Zuverlässigkeit und Nachfrage zu erzielen, schreibt Binder. Ihren aktuellen Verbrauch können Kunden in Visual Studio Code oder dem Kommandozeilentool von GitHub Copilot einsehen.

Weiterlesen nach der Anzeige

Microsoft empfiehlt Kunden, die sich ihrem Nutzungslimit nähern, auf kleinere Modelle umzusteigen, weniger parallele Workflows zu verwenden oder den Plan-Mode zu nutzen. Alternativ verweist das Unternehmen seine Pro-Kunden auf den Pro+-Tarif.

GitHub Copilot kostet im Pro-Tarif monatlich 10 US-Dollar, Pro+-Nutzer zahlen 39 US-Dollar. Kunden der Pro- und Pro+-Tarife können ihr Abonnement jederzeit kündigen und sich die Gebühren für April über eine Supportanfrage bis zum 20. Mai 2026 zurückerstatten lassen. Zuletzt versuchte Microsoft, nicht nur mit Abonnement-Gebühren an GitHub Copilot zu verdienen, sondern blendete Werbung in Pull Requests ein. Nach Nutzerbeschwerden ruderte das Unternehmen zurück.


(sfe)



Source link

Weiterlesen

Beliebt