Apps & Mobile Entwicklung
OpenAI: ChatGPT kann nun auch als Agent fungieren
Bisher war ChatGPT darauf ausgelegt, einzelne Eingaben entgegenzunehmen und daraufhin Antworten auszugeben. Nun wurde der Chatbot von OpenAI um sogenannte Agentenfunktionen erweitert, wodurch er in der Lage ist, Anweisungen zu folgen und komplexere Aufgaben auf dem eigenen Rechner auszuführen – samt Zugriff auf lokale Dateien.
Lösen von komplexen Aufgrund durch Zugriff auf lokale Informationen
Als Beispiele für die neuen Möglichkeiten nennt OpenAI unter anderem das Informieren über anstehende Kundentermine, das Planen sowie den Einkauf der Zutaten für ein japanisches Frühstück für vier Personen oder auch die Analyse dreier konkurrierender Unternehmen, einschließlich der Erstellung einer entsprechenden Präsentation.
Mit dieser Erweiterung kann der Bot nun nicht mehr nur auf Online-Quellen, sondern zur Verarbeitung und für ein verbessertes Ergebnis zusätzlich auf lokale Dateien zugreifen. Dabei nutzt ChatGPT sowohl den OpenAI-Operator, der dem Bot erlaubt, mit Webseitenelementen zu interagieren, als auch das hauseigene Deep-Research-Tool. Darüber hinaus stehen ein textbasierter Browser, ein Terminal, OpenAI-eigene Programmierschnittstellen sowie ChatGPT-Konnektoren zur Verfügung, mit denen sich Verbindungen zu weiteren Diensten herstellen lassen.
Der Agent arbeitet dabei in einer eigenen virtuellen Maschine, was laut OpenAI zur Erhaltung des Kontexts beitragen und dem System ermöglichen soll, fließend zwischen Denkprozessen und Handlungen zu wechseln.
Vorteile und Gefahren
„Diese Version markiert das erste Mal, dass Benutzer ChatGPT auffordern können, Aktionen im Web durchzuführen“, erklärt OpenAI in einem Blog-Eintrag zur Einführung der neuen Agent-Funktion. Gleichzeitig weist das Unternehmen darauf hin, dass der Zugriff von ChatGPT auf eigene Dateien auch Gefahren berge und daher mit entsprechender Sorgfalt erfolgen solle. Um diesen Risiken zu begegnen, wurden die mit dem Operator eingeführten Sicherheitsmechanismen überarbeitet und durch zusätzliche Schutzmaßnahmen ergänzt. Dadurch sollen vertrauliche Daten besser gesichert werden. Die Entwickler hatten hierbei insbesondere das Einschleusen bösartiger Eingaben im Blick, das bei Agentensystemen ein besonderes Risiko darstellt, da diese deutlich mehr Daten als herkömmliche Chatbots verarbeiten und für deren Ausführung umfassendere Zugriffsrechte auf Werkzeuge und Daten benötigen.
Zusätzliches Sicherheitskonzept
Zudem sollen zusätzliche Schutzmechanismen integriert worden sein, die bei Aktionen mit Auswirkungen auf die reale Welt, etwa dem Versand einer E-Mail, eine ausdrückliche Zustimmung erfordern. Kritische Tätigkeiten wie Überweisungen vom eigenen Bankkonto blockiert ChatGPT hingegen vollständig. Der KI-gestützte Bot soll darüber hinaus unempfindlich gegenüber sogenannter Prompt Injection sein und in entsprechenden Tests 99,5 Prozent aller synthetisch erzeugten, irrelevanten Anweisungen oder Versuche zur Datenexfiltration über Web-Seiten ignoriert haben.
Die EU ist erneut zunächst nicht mit dabei
Nutzer außerhalb der Europäischen Union, die über ein Pro-, Plus- oder Team-Abonnement verfügen, können die neuen Funktionen ab sofort im ChatGPT-Menü unter Tools als Dropdown-Option aktivieren. Inhaber von Education- oder Enterprise-Zugängen sollen in den kommenden Wochen ebenfalls Zugriff auf die neuen Möglichkeiten erhalten.
Apps & Mobile Entwicklung
A19 (Pro), N1 und C1X: Diese neuen Chips treiben iPhone 17, 17 Pro und Air an
Apple iPhone 17, iPhone 17 Pro und iPhone Air werden von neuen Prozessoren der A19-Serie angetrieben, setzen aber auch an anderer Stelle auf „Apple Silicon“ – also Chips aus Apples eigenen Laboren. Neben der 2. Generation Modem (Apple C1X) hat Apple am Abend auch einen Netzwerk-Chip für iPhone (Apple N1) vorgestellt.
Apple A19 und A19 Pro: die neuen SoCs
Die neuen A19-Chips werden weiterhin in 3 nm bei TSMC gefertigt, Apple spricht von „der 3. Generation 3-nm-Fertigung“. Die 2-nm-Fertigung von TSMC ist dieses Jahr noch nicht so weit. Sie hatte im Frühling den ersten Tape-Out mit Chips von AMD gefeiert.
Der neue Apple A19 für das iPhone 17 belässt es bei einer 6-Core-CPU (2 Performance- und 4 Efficiency-Kerne) und 5 GPU-Cores, der Apple A19 Pro kommt im iPhone Air auf dieselbe Konfiguration, im iPhone 17 Pro sind hingegen 6 GPU-Cores aktiv. Informationen zum Cache der Kerne liegen noch nicht vor, hier dürfte sich mit Blick auf die Performance-Kerne der Vorgänger aber ebenfalls ein Unterschied zeigen.
Sowohl im A19 als auch im A19 Pro finden sich AI-Coprozessoren nicht mehr nur als separater Funktionsblock im Chip (weiterhin 16 Kerne), sondern sind auch integraler Bestandteil der GPU-Kerne. Ebenfalls überarbeitet wurden die Cache-Architektur der GPU. Sie nutzt die Dynamic-Caching-Architektur der 2. Generation, die Apple mit dem M3 eingeführt hatte.

Zur Stunde sind die detailliertere Informationen auf der bereits aktualisierten Apple Webseite, die die Unterschiede zwischen A19 und A19 Pro herausarbeiten, noch rar.
Apple C1X: die zweite Generation Mobilfunkmodem
Neue A-SoCs waren erwartet worden, eine zweite Generation Mobilfunkmodem hingegen noch nicht. Doch nur sechs Monate nach dem ersten Einsatz im iPhone 16e (Test) hat Apple mit dem Apple C1X bereits eine Überarbeitung vorgestellt, die doppelt so hohe Datenraten bei weniger Verbrauch ermöglichen soll.
Die kommt allerdings nur im iPhone Air zum Einsatz, iPhone 17 und iPhone 17 Pro dürften noch auf Modems vom Qualcomm setzen.

Apple N1: WiFi, Bluetooth und Thread
Eine Premiere feiert der Apple N1: Apples erster eigener WiFi-, Bluetooth- und Thread-Chip für iPhone. Er beherrscht WiFi 7 und Bluetooth 6.0 und soll im Vergleich zu Drittanbieter-Lösungen besonders effizient sein. Alle drei neuen iPhone nutzen diesen Chip.

Apps & Mobile Entwicklung
Mercedes GLC EQ 2026: Dieses Elektro-SUV sprengt alle Grenzen!
Entdeckt den neuen Mercedes GLC 2026: vollelektrisches Premium-SUV mit bis zu 713 km Reichweite, 800-Volt-Schnellladen & MBUX Hyperscreen.[mehr]
Apps & Mobile Entwicklung
Neue MLC-Inference-Benchmarks: Nvidia GB300 vaporisiert Rekorde, AMDs MI355X debütiert
Inferenz ist das große Thema bei AI, neben Nvidias GB300 ist hier auch AMD mit Instinct MI355X erstmals bei MLCommons vertreten. Während Nvidia seine eigenen Rekorde, die erst im letzten halben Jahr von GB200 aufgestellt wurden, vaporisiert, zeigt auch AMDs Wachstumskurve deutlich nach oben. Auch Intel liefert Ergebnisse.
Intel mit Arc Pro und Xeon 6
Die neue Intel Arc Pro B60 48GB Turbo hat es nämlich auch in die Liste geschafft. Sie soll eine Alternative für kleinere Projekte sein, dafür aber eben auch über den Preis punkten. Vier dieser Karten bieten 192 GByte VRAM für ein Workstation-System, damit lassen sich laut Intel Llama2-70b-Modelle bei verschiedenen Nutzern ausführen. Das soll laut Intels Pressemeldung dazu führen, dass im Bereich Performance pro Dollar gegenüber der RTX Pro 6000 oder L40S ein viel besseres Gesamtpaket verkauft wird.
Parallel dazu verweist Intel erneut darauf, dass man das einzige Unternehmen ist, welches auch Inference-Benchmarks von CPUs einreicht. Die neuen Xeon 6 sind hierbei im Schnitt von fünf Anwendungen 1,9 Mal schneller als die fünfte Generation.
AMD nun mit drei Generationen Instinct vertreten
Von AMD werden keine Epyc-Ergebnisse übermittelt, hier liegt der Fokus auf Instinct MI325X und den neuen 355X mit 1.400 Watt, aber auch der weiteren Optimierung auf MI300X. Nach viel Kritik in der Vergangenheit hat es AMD nun auch geschafft, Partner wie Asus, Dell, GigaComputing, MangoBoost, MiTAC, Quanta Cloud Technology, Supermicro und Vultr zu Einreichungen von Ergebnissen mit AMD-Hardware zu bewegen.

Dies soll gleichzeitig Vertrauen schaffen und der Kundschaft zeigen, dass man sich auf AMD verlassen kann. Denn Benchmarks bei MLCommons einzureichen, ist kein Selbstläufer, jede der teilnehmenden Parteien kann sich die Ergebnisse vor der Veröffentlichung ansehen und Fragen dazu stellen, erst wenn Probleme ausgeräumt sind, werden die Ergebnisse auch veröffentlicht.
Nvidia spielt noch in einer anderen Liga
In der Oberklasse ist auch Nvidia mit seiner 1.400-Watt-Lösung GB300 erstmals am Start. Das ist nur wenige Monate nach den ersten Tests mit GB200 und zeigt, wie schnell sich der Markt doch zu Blackwell Ultra hin entwickelt hat. Der neue Datentyp FP4 ist die neue Nvidia-Bastion, nur MI355X kann dies auch, AMD vermarktet dort aber lieber FP6.

Nvidias Stärke ist weiterhin, dass auch 16 Partner mit ihrer Hardware Ergebnisse zeigen, die nahezu stets auf gleicher Höhe zu Nvidias Werten liegen. Da die Serversysteme bei neuen Nvidia-Lösungen aber die gleiche Basis haben und mitunter sogar aus den gleichen Fabs kommen, liegt dies schnell auf der Hand. Vor allem die Möglichkeiten, die Blackwell-Systeme bieten, sollen nun weiter ausgeschöpft werden, erklärt Nvidia in einem Blog-Beitrag.

Wie sich die Kontrahenten in ML Commons schlagen, gibt die Pressemeldung preis.
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 3 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 2 Wochen
Adobe Firefly Boards › PAGE online
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Social Mediavor 3 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 3 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 6 Tagen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events