Connect with us

Künstliche Intelligenz

GPT-5.2: Neues KI-Modell von OpenAI soll Büroarbeiten besser unterstützen


OpenAI hat ein neues KI-Modell eingeführt. GPT-5.2 soll vorrangig die Nutzung Künstlicher Intelligenz (KI) für Büroarbeiten verbessern, sich aber auch hervorragend für KI-Agenten und deren längere Workflows eignen. Die ChatGPT-Entwickler versprechen damit „noch mehr wirtschaftlichen Nutzen für die Menschen“. GPT-5.2 eignet sich laut OpenAI „besser zum Erstellen von Tabellenkalkulationen, Präsentationen, Programmieren, Auswertung von Bildern, Verstehen längerer Zusammenhänge, Verwenden von Werkzeugen und Bearbeiten komplexer, mehrstufiger Projekte“.

Weiterlesen nach der Anzeige

Die Einführung des neuen KI-Modells erfolgt nur rund einen Monat nach der letzten Version, die OpenAI Mitte November verfügbar gemacht hatte. GPT-5.1 sollte „intelligenter und unterhaltsamer“ sein als ihre Vorgänger. Der Umgang mit dem KI-Modell soll weiterhin Spaß machen, aber GPT-5.2 fühlt sich laut OpenAI im Alltag besser an, da es strukturierter und zuverlässiger sei, heißt es in der Mitteilung des Unternehmens.

OpenAI bietet das neue KI-Modell wie üblich in drei Ausprägungen an. GPT-5.2 Instant ist für alltägliche Aufgaben bei der Arbeit sowie beim Lernen geeignet und soll Inhalte klarer darstellen können. GPT-5.2 Thinking soll komplexere Aufgaben lösen können, die Reasoning erfordern, etwa beim Zusammenfassen längerer Dokumente, der Untersuchung hochgeladener Dateien oder der schrittweisen Bearbeitung mathematischer oder logischer Probleme. GPT-5.2 Pro soll schließlich die „intelligenteste und vertrauenswürdigste Option für schwierige Fragen sein, bei denen sich das Warten auf eine qualitativ hochwertige Antwort lohnt“. Diese Version soll auch weniger gravierende Fehler zeigen.

Denn vor Fehlern ist auch das neue KI-Modell nicht gefeit. GPT-5.2 halluziniert laut OpenAI allerdings weniger als GPT-5.1. Die ChatGPT-Entwickler wollen dies anhand derselben Fragen an die KI-Modelle bewiesen sehen. Demnach waren die Antworten von GPT-5.2 Thinking 30 Prozent weniger fehlerhaft als die von GPT-5.1 Thinking. Die Fehlerrate sinkt nach Tests von OpenAI von 8,8 auf 6,2 Prozent. Damit zeige das neue KI-Modell eine höhere Zuverlässigkeit für alltägliche Wissensarbeiten.

Daneben erklärte OpenAI, dass das Unternehmen ein KI-Modell zur Alterseinschätzung testet. Damit sollen automatisch bestimmte Schutzmaßnahmen für Nutzer unter 18 Jahren aktiviert werden, um den Zugriff auf sensible Inhalte einzuschränken. Fidji Simo, App-Chefin bei OpenAI, erklärte laut The Verge, dass das Unternehmen beginne, in bestimmten Ländern zu testen, wie gut es Teenager identifizieren könne, „und Erwachsene nicht fälschlicherweise identifiziert“. Das sei notwendig, bevor sie den „Erwachsenenmodus“ von ChatGPT einführen, was sie im ersten Quartal 2026 erwartet.

Weiterlesen nach der Anzeige

Lesen Sie auch

Keine Rede war dagegen von einem neuen oder verbesserten KI-Bildgenerator. Hier hat Google dieses Jahr enorm aufgeholt. Nach unseren Tests ist „Nano Banana“ die beste kostenlose KI-Bildbearbeitung. Der auch „Gemini 2.5 Flash Image“ genannte KI-Bildgenerator hat kürzlich auch eine Pro-Version bekommen, nachdem Google Gemini 3 herausgebracht hatte: das auf Gemini 3 Pro basierende Nano Banana Pro. Angeblich wartet OpenAI bis Januar mit einer entsprechenden Reaktion, berichtet TechCrunch. Dann soll ein neues KI-Modell mit besseren Bildern, höherer Geschwindigkeit und verbesserter Persönlichkeit erscheinen. Dies wollte OpenAI gestern aber noch nicht bestätigen.

Zunächst hat sich OpenAI auf sein neues Sprachmodell konzentriert. GPT-5.2 steht ab sofort in allen drei Varianten (Instant, Thinking und Pro) für ChatGPT zur Verfügung, zunächst in den Bezahlabos (Plus, Pro, Go, Business und Enterprise). Der Rollout erfolgt allerdings schrittweise, betont das Unternehmen. Sollte GPT-5.2 innerhalb von ChatGPT noch nicht verfügbar sein, sollte man es später erneut versuchen.

GPT-5.1 wird zahlenden ChatGPT-Nutzern noch drei Monate zur Verfügung stehen, bevor das bisherige KI-Modell eingestellt wird. Das gilt allerdings nicht für die Programmierschnittstellen für Entwickler. Die entsprechenden APIs werden selbst für GPT-5 und GPT-4.1 weiterhin verfügbar bleiben, und es gibt bislang keine Pläne, die Unterstützung dieser Versionen zu beenden.

Siehe auch:


(fds)



Source link

Künstliche Intelligenz

EuGH stellt klar: Sonderkündigungsrecht bei Anpassung von Nulltarif-Verträgen


Der Europäische Gerichtshof (EuGH) hat am Donnerstag ein Urteil verkündet, das die Position von Internet- und Mobilfunkkunden in der EU stärkt. Es geht um die Frage, ob Nutzer ein Sonderkündigungsrecht haben, wenn Anbieter ihre Verträge einseitig ändern müssen, um sie an die aktuelle Rechtsprechung zum „Nulltarif“ für Streamingdienste (Zero Rating) anzupassen. Die Luxemburger Richter stellten klar, dass eine solche Vertragsänderung nicht unter die gesetzlichen Ausnahmeregelungen fällt, die eine kostenlose Kündigung ausschließen würden.

Weiterlesen nach der Anzeige

Damit müssen Provider ihren Kunden den Ausstieg ermöglichen, sobald sie die Bedingungen für die Datennutzung anpassen. Das gilt selbst dann, wenn sie dies auf Druck nationaler Regulierungsbehörden tun.

Hintergrund des Verfahrens ist ein langjähriger Streit über Zero-Rating-Optionen. Bei diesen Tarifen wird der Datenverkehr für bestimmte Anwendungen wie Musik-Streaming oder soziale Medien nicht auf das monatliche Inklusiv-Volumen angerechnet. Bereits 2020 und 2021 hatte der EuGH geurteilt, dass solche Praktiken gegen die Netzneutralität verstoßen und das EU-Recht dem entgegensteht. In der Folge forderten nationale Behörden wie die ungarische Medienaufsicht in der aktuell vom EuGH entschiedenen Rechtssache C-514/24 rund um Magyar Telekom die Anbieter auf, bestehende Verträge zu korrigieren.

Magyar vertrat die Auffassung, dass Kunden hier kein Recht zur kostenlosen Kündigung zustünde. Das Unternehmen argumentierte, dass die Vertragsanpassung unmittelbar durch das EU-Recht oder zumindest durch die darauf basierenden behördlichen Entscheidungen erforderlich sei. Im Einklang mit der EU-Gesetzgebung können Endnutzer bei einseitigen Vertragsänderungen normalerweise kostenfrei kündigen. Eine Ausnahme gilt, wenn die Anpassung „unmittelbar durch Unionsrecht oder nationales Recht vorgeschrieben“ ist.

Dieser Argumentation erteilte der EuGH eine Absage. Er hob hervor, dass Ausnahmen vom Verbraucherschutz eng auszulegen seien. Ein Urteil des Gerichtshofs ändere nicht das Recht selbst, sondern stelle lediglich deklaratorisch fest, wie eine bestehende Vorschrift seit ihrem Inkrafttreten zu verstehen sei. Weder die Urteile des EuGH noch die darauf basierenden Leitlinien des Gremiums europäischer Regulierungsstellen (Gerek) oder die Bescheide nationaler Behörden stellen demnach eine unmittelbare normative Änderung dar, die das Kündigungsrecht der Nutzer aushebeln könnte.

Das Urteil ist auch für den deutschen Markt relevant. Hierzulande waren Tarife wie StreamOn der Telekom oder Vodafone Pass jahrelang Gegenstand juristischer Auseinandersetzungen. Nach den vorangegangenen EuGH-Urteilen untersagte die Bundesnetzagentur die Vermarktung und später auch die Nutzung dieser Optionen, was Millionen Verträge betraf.

Weiterlesen nach der Anzeige

Da die Anbieter gezwungen waren, diese tariflichen Kernbestandteile zu streichen oder anzupassen, schafft das aktuelle Urteil aus Luxemburg nun mehr Klarheit für Verbraucher: Werden Leistungen, die für den Vertragsschluss entscheidend waren – wie die unbegrenzte Nutzung bestimmter Apps –, gestrichen, können sich Anbieter nicht hinter der behördlichen Anordnung verstecken, um Kunden in den Verträgen zu halten.

Das Urteil zementiert so den Grundsatz, dass das unternehmerische Risiko einer rechtswidrigen Tarifgestaltung nicht auf die Endkunden abgewälzt werden darf. Für die Branche heißt das: Bei künftigen Anpassungen an die Netzneutralität dürfte mit einer Kündigungswelle zu rechnen sein, sofern die Ersatzangebote für die Nutzer nicht attraktiv sind.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Metas KI-Beschleuniger sollen 2027 Nvidia & Co. überholen


Der KI-Beschleuniger MTIA 300 läuft bereits produktiv in Meta-Rechenzentren; jetzt stellt Meta auch MTIA 400 vor, der die Labortests abgeschlossen hat und kurz vor dem Feldeinsatz steht. Das ist noch nicht alles: Bereits 2027 will Meta zwei weitere Generationen in seine Rechenzentren bringen und in manchen Anwendungsfällen KI-Beschleuniger etwa von AMD und Nvidia abhängen.

Weiterlesen nach der Anzeige

MTIA steht zwar für „Meta Training and Inference Accelerator“, allerdings will sich Meta laut Ankündigung künftig auf Inferenz fokussieren. Dabei führen die Chips bereits trainierte KI-Modelle aus, etwa um Chatanfragen von Nutzern zu beantworten. Meta nennt Inferenz für generative KI als wichtigstes Einsatzgebiet seiner Chips. MTIA 400 soll der letzte „allgemeine“ Beschleuniger ohne diesen Fokus darstellen.

Der MTIA 400 besteht aus insgesamt fünf Chiplets plus vier Speicherstapeln vom Typ High-Bandwidth Memory (HBM; die Generation nennt Meta nicht konkret). In den zwei größten Chiplets sitzen die Rechenwerke. Ein sogenanntes Processing Element (PE) setzt auf zwei RISC-V-Kerne zur Verwaltung. Sie führen Code aus und lagern bestimmte Aufgaben über einen Command-Prozessor an spezialisierte Schaltkreise aus, können über ihre Vektoreinheiten aber auch selbst SIMD-artig (Single-Instruction-Multiple-Data) rechnen.


MTIA 300

(Bild:

Meta

)

Dazu gesellen sich Matrix-Einheiten (Dot Product Engines), Reduction Engines für die Akkumulationsrechnungen und Kommunikation mit anderen PEs, sowie DMA Engines (Direct Memory Access) für Datenbewegungen. Jede PE hat lokalen Cache, zudem teilen sich alle PEs einen gemeinsamen SRAM-Cache. In diesen Compute-Chiplets sitzen zudem die Speicher-Controller für das HBM.

In zwei weiteren Chiplets sitzen Netzwerk-Controller für insgesamt zwölf 800-Gbit/s-Verbindungen, über die Meta bis zu 72 KI-Beschleuniger aneinanderkoppelt. Ein System-on-Chip-Die enthält unter anderem PCI-Express-Controller und einen übergeordneten Control Core Processor (CCP) aus mehreren RISC-V-Kernen zur Ansteuerung des gesamten KI-Beschleunigers.

Ein MTIA 400 nimmt 1200 Watt auf, kommt mit 288 GByte HBM und schafft 12 Billiarden vierbittige Gleitkomma-Operationen pro Sekunde (12 FP4-Petaflops). Metas MX4-Angabe bezieht sich auf die sogenannten Microscaling Formats, die das Open Compute Project (OCP) aufbauend auf FP4 spezifiziert.

Weiterlesen nach der Anzeige



Spezifikationen der Meta-KI-Beschleuniger.

(Bild: Meta)

Der MTIA 450 verwendet überarbeitete Compute-Chiplets und schnelleres HBM. Die Verdoppelung der Übertragungsrate auf 18,4 TByte/s bei gleichbleibender Kapazität von 288 GByte spricht für eine neue Generation, womöglich HBM4.

Meta will hier vor allem die FP4-Geschwindigkeit steigern. Die Rede ist von 21 Petaflops, ein Plus von 75 Prozent. Die elektrische Leistungsaufnahme steigt um 17 Prozent auf 1400 Watt. Ab Anfang 2027 soll der MTIA 450 einsatzbereit sein.

Später im Jahr 2027 folgt der MTIA 500. Meta visiert ein Performance-Plus von über 40 Prozent an. Die Compute-Chiplets sind ab da vier- statt zweigeteilt. Zudem steigt die Speicherkapazität auf 384 bis 512 GByte; die Übertragungsrate auf 27,6 TByte/s. Meta visiert dafür ein Energiebudget von 1700 Watt an.



Ein kompletter Server mit 72 KI-Beschleunigern von Meta.

(Bild: Meta)

Mit dem Chiplet-Ansatz will Meta gezielt die Entwicklung neuer KI-Beschleuniger verkürzen. Auch die restliche Hardware drumherum ist auf schnelle Wechsel ausgelegt: Alle vier Generationen sollen in denselben Servern laufen. So möchte Meta den schnellen Fortschritten in der KI-Entwicklung entgegenkommen. KI-Beschleuniger anderer Firmen will der Konzern trotzdem weiterhin einsetzen.

Broadcom hilft Meta bei den Designs, wie auch vielen anderen Hyperscalern bei ihren KI-Beschleunigern. Zu den Strukturbreiten äußert sich Meta nicht; 2- oder 3-Nanometer-Fertigungstechnik von TSMC erscheint allerdings logisch.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Marktforschung: YouTube löst Disney als weltgrößten Medienkonzern ab


YouTube löst laut einer Analyse von MoffettNathanson nun Disney als weltgrößten Medienkonzern ab, zumindest gemessen an dem jährlichen Umsatz. YouTube hat 2025 demnach einen geschätzten Jahresumsatz von 62 Milliarden US-Dollar verzeichnet, wie The Hollywood Reporter unter Berufung auf das Finanzforschungsunternehmen berichtet. The Walt Disney Company habe hingegen nur 60,9 Milliarden US-Dollar umgesetzt, die eigenen Parks und Resorts nicht eingerechnet.

Weiterlesen nach der Anzeige

Über 40 Milliarden US-Dollar hat YouTube demnach allein durch Werbeeinnahmen generiert. Die restlichen Einnahmen seien auf die Dienste YouTube Premium, YouTube Music, YouTube TV und das Sportangebot NFL Sunday Ticket zurückzuführen, erklärt The Hollywood Reporter weiter. Wäre YouTube ein eigenes Unternehmen, hätte es jetzt einen Wert von 500 bis 560 Milliarden US-Dollar. Im vergangenen Jahr hätte MoffettNathanson YouTubes Wert noch auf 475 bis 550 Milliarden US-Dollar geschätzt.

Bereits im Februar dieses Jahres hatte Alphabet – die Mutterfirma der Videoplattform – bekannt gegeben, dass YouTubes Jahresumsatz 2025 60 Milliarden US-Dollar überstiegen hätte, ohne jedoch eine genauere Zahl zu nennen.

Um den Umsatz durch Werbung weiter zu erhöhen, hatte Google seine Werbekundinnen und -kunden zudem kürzlich darüber informiert, dass in der YouTube-App auf Fernsehgeräten künftig 30-sekündige, nicht überspringbare Werbespots laufen sollen. In den USA wird YouTube auf keinem anderen Gerät so häufig konsumiert wie auf dem Fernseher.


(mho)



Source link

Weiterlesen

Beliebt