Connect with us

Apps & Mobile Entwicklung

OpenAI: ChatGPT kann nun auch als Agent fungieren


OpenAI: ChatGPT kann nun auch als Agent fungieren

Bild: OpenAI

Bisher war ChatGPT darauf ausgelegt, einzelne Eingaben entgegenzunehmen und daraufhin Antworten auszugeben. Nun wurde der Chatbot von OpenAI um sogenannte Agentenfunktionen erweitert, wodurch er in der Lage ist, Anweisungen zu folgen und komplexere Aufgaben auf dem eigenen Rechner auszuführen – samt Zugriff auf lokale Dateien.

Lösen von komplexen Aufgrund durch Zugriff auf lokale Informationen

Als Beispiele für die neuen Möglichkeiten nennt OpenAI unter anderem das Informieren über anstehende Kundentermine, das Planen sowie den Einkauf der Zutaten für ein japanisches Frühstück für vier Personen oder auch die Analyse dreier konkurrierender Unternehmen, einschließlich der Erstellung einer entsprechenden Präsentation.

Mit dieser Erweiterung kann der Bot nun nicht mehr nur auf Online-Quellen, sondern zur Verarbeitung und für ein verbessertes Ergebnis zusätzlich auf lokale Dateien zugreifen. Dabei nutzt ChatGPT sowohl den OpenAI-Operator, der dem Bot erlaubt, mit Webseitenelementen zu interagieren, als auch das hauseigene Deep-Research-Tool. Darüber hinaus stehen ein textbasierter Browser, ein Terminal, OpenAI-eigene Programmierschnittstellen sowie ChatGPT-Konnektoren zur Verfügung, mit denen sich Verbindungen zu weiteren Diensten herstellen lassen.

Hintergründe zu den ChatGPT-Funktionen

Der Agent arbeitet dabei in einer eigenen virtuellen Maschine, was laut OpenAI zur Erhaltung des Kontexts beitragen und dem System ermöglichen soll, fließend zwischen Denkprozessen und Handlungen zu wechseln.

Vorteile und Gefahren

Diese Version markiert das erste Mal, dass Benutzer ChatGPT auffordern können, Aktionen im Web durchzuführen“, erklärt OpenAI in einem Blog-Eintrag zur Einführung der neuen Agent-Funktion. Gleichzeitig weist das Unternehmen darauf hin, dass der Zugriff von ChatGPT auf eigene Dateien auch Gefahren berge und daher mit entsprechender Sorgfalt erfolgen solle. Um diesen Risiken zu begegnen, wurden die mit dem Operator eingeführten Sicherheitsmechanismen überarbeitet und durch zusätzliche Schutzmaßnahmen ergänzt. Dadurch sollen vertrauliche Daten besser gesichert werden. Die Entwickler hatten hierbei insbesondere das Einschleusen bösartiger Eingaben im Blick, das bei Agentensystemen ein besonderes Risiko darstellt, da diese deutlich mehr Daten als herkömmliche Chatbots verarbeiten und für deren Ausführung umfassendere Zugriffsrechte auf Werkzeuge und Daten benötigen.

Zusätzliches Sicherheitskonzept

Zudem sollen zusätzliche Schutzmechanismen integriert worden sein, die bei Aktionen mit Auswirkungen auf die reale Welt, etwa dem Versand einer E-Mail, eine ausdrückliche Zustimmung erfordern. Kritische Tätigkeiten wie Überweisungen vom eigenen Bankkonto blockiert ChatGPT hingegen vollständig. Der KI-gestützte Bot soll darüber hinaus unempfindlich gegenüber sogenannter Prompt Injection sein und in entsprechenden Tests 99,5 Prozent aller synthetisch erzeugten, irrelevanten Anweisungen oder Versuche zur Datenexfiltration über Web-Seiten ignoriert haben.

Die EU ist erneut zunächst nicht mit dabei

Nutzer außerhalb der Europäischen Union, die über ein Pro-, Plus- oder Team-Abonnement verfügen, können die neuen Funktionen ab sofort im ChatGPT-Menü unter Tools als Dropdown-Option aktivieren. Inhaber von Education- oder Enterprise-Zugängen sollen in den kommenden Wochen ebenfalls Zugriff auf die neuen Möglichkeiten erhalten.





Source link

Apps & Mobile Entwicklung

A19 (Pro), N1 und C1X: Diese neuen Chips treiben iPhone 17, 17 Pro und Air an


A19 (Pro), N1 und C1X: Diese neuen Chips treiben iPhone 17, 17 Pro und Air an

Apple iPhone 17, iPhone 17 Pro und iPhone Air werden von neuen Prozessoren der A19-Serie angetrieben, setzen aber auch an anderer Stelle auf „Apple Silicon“ – also Chips aus Apples eigenen Laboren. Neben der 2. Generation Modem (Apple C1X) hat Apple am Abend auch einen Netzwerk-Chip für iPhone (Apple N1) vorgestellt.

Apple A19 und A19 Pro: die neuen SoCs

Die neuen A19-Chips werden weiterhin in 3 nm bei TSMC gefertigt, Apple spricht von „der 3. Generation 3-nm-Fertigung“. Die 2-nm-Fertigung von TSMC ist dieses Jahr noch nicht so weit. Sie hatte im Frühling den ersten Tape-Out mit Chips von AMD gefeiert.

Der neue Apple A19 für das iPhone 17 belässt es bei einer 6-Core-CPU (2 Performance- und 4 Efficiency-Kerne) und 5 GPU-Cores, der Apple A19 Pro kommt im iPhone Air auf dieselbe Konfiguration, im iPhone 17 Pro sind hingegen 6 GPU-Cores aktiv. Informationen zum Cache der Kerne liegen noch nicht vor, hier dürfte sich mit Blick auf die Performance-Kerne der Vorgänger aber ebenfalls ein Unterschied zeigen.

Sowohl im A19 als auch im A19 Pro finden sich AI-Coprozessoren nicht mehr nur als separater Funktionsblock im Chip (weiterhin 16 Kerne), sondern sind auch integraler Bestandteil der GPU-Kerne. Ebenfalls überarbeitet wurden die Cache-Architektur der GPU. Sie nutzt die Dynamic-Caching-Architektur der 2. Generation, die Apple mit dem M3 eingeführt hatte.

Apple A19 und A19 Pro verfügen über AI-Einheiten in der GPU
Apple A19 und A19 Pro verfügen über AI-Einheiten in der GPU

Zur Stunde sind die detailliertere Informationen auf der bereits aktualisierten Apple Webseite, die die Unterschiede zwischen A19 und A19 Pro herausarbeiten, noch rar.

Apple C1X: die zweite Generation Mobilfunkmodem

Neue A-SoCs waren erwartet worden, eine zweite Generation Mobilfunkmodem hingegen noch nicht. Doch nur sechs Monate nach dem ersten Einsatz im iPhone 16e (Test) hat Apple mit dem Apple C1X bereits eine Überarbeitung vorgestellt, die doppelt so hohe Datenraten bei weniger Verbrauch ermöglichen soll.

Die kommt allerdings nur im iPhone Air zum Einsatz, iPhone 17 und iPhone 17 Pro dürften noch auf Modems vom Qualcomm setzen.

Apples 2. Generation Mobilfunkmodem tritt vorerst nur im iPhone Air an
Apples 2. Generation Mobilfunkmodem tritt vorerst nur im iPhone Air an

Apple N1: WiFi, Bluetooth und Thread

Eine Premiere feiert der Apple N1: Apples erster eigener WiFi-, Bluetooth- und Thread-Chip für iPhone. Er beherrscht WiFi 7 und Bluetooth 6.0 und soll im Vergleich zu Drittanbieter-Lösungen besonders effizient sein. Alle drei neuen iPhone nutzen diesen Chip.

Mit dem Apple N1 präsentiert Apple einen ersten WiFi-Bluetooth-Chip für iPhone
Mit dem Apple N1 präsentiert Apple einen ersten WiFi-Bluetooth-Chip für iPhone



Source link

Weiterlesen

Apps & Mobile Entwicklung

Mercedes GLC EQ 2026: Dieses Elektro-SUV sprengt alle Grenzen!


Mercedes GLC EQ 2026: Dieses Elektro-SUV sprengt alle Grenzen!
Entdeckt den neuen Mercedes GLC 2026: vollelektrisches Premium-SUV mit bis zu 713 km Reichweite, 800-Volt-Schnellladen & MBUX Hyperscreen.[mehr]



Source link

Weiterlesen

Apps & Mobile Entwicklung

Neue MLC-Inference-Benchmarks: Nvidia GB300 vaporisiert Rekorde, AMDs MI355X debütiert


Neue MLC-Inference-Benchmarks: Nvidia GB300 vaporisiert Rekorde, AMDs MI355X debütiert

Bild: Nvidia

Inferenz ist das große Thema bei AI, neben Nvidias GB300 ist hier auch AMD mit Instinct MI355X erstmals bei MLCommons vertreten. Während Nvidia seine eigenen Rekorde, die erst im letzten halben Jahr von GB200 aufgestellt wurden, vaporisiert, zeigt auch AMDs Wachstumskurve deutlich nach oben. Auch Intel liefert Ergebnisse.

Intel mit Arc Pro und Xeon 6

Die neue Intel Arc Pro B60 48GB Turbo hat es nämlich auch in die Liste geschafft. Sie soll eine Alternative für kleinere Projekte sein, dafür aber eben auch über den Preis punkten. Vier dieser Karten bieten 192 GByte VRAM für ein Workstation-System, damit lassen sich laut Intel Llama2-70b-Modelle bei verschiedenen Nutzern ausführen. Das soll laut Intels Pressemeldung dazu führen, dass im Bereich Performance pro Dollar gegenüber der RTX Pro 6000 oder L40S ein viel besseres Gesamtpaket verkauft wird.

Parallel dazu verweist Intel erneut darauf, dass man das einzige Unternehmen ist, welches auch Inference-Benchmarks von CPUs einreicht. Die neuen Xeon 6 sind hierbei im Schnitt von fünf Anwendungen 1,9 Mal schneller als die fünfte Generation.

AMD nun mit drei Generationen Instinct vertreten

Von AMD werden keine Epyc-Ergebnisse übermittelt, hier liegt der Fokus auf Instinct MI325X und den neuen 355X mit 1.400 Watt, aber auch der weiteren Optimierung auf MI300X. Nach viel Kritik in der Vergangenheit hat es AMD nun auch geschafft, Partner wie Asus, Dell, GigaComputing, MangoBoost, MiTAC, Quanta Cloud Technology, Supermicro und Vultr zu Einreichungen von Ergebnissen mit AMD-Hardware zu bewegen.

Es geht aufwärts bei AMD Instinct
Es geht aufwärts bei AMD Instinct (Bild: AMD)

Dies soll gleichzeitig Vertrauen schaffen und der Kundschaft zeigen, dass man sich auf AMD verlassen kann. Denn Benchmarks bei MLCommons einzureichen, ist kein Selbstläufer, jede der teilnehmenden Parteien kann sich die Ergebnisse vor der Veröffentlichung ansehen und Fragen dazu stellen, erst wenn Probleme ausgeräumt sind, werden die Ergebnisse auch veröffentlicht.

Mehr Support mit MI325X
Mehr Support mit MI325X (Bild: AMD)
MI355X vs. 325X
MI355X vs. 325X (Bild: AMD)
Instinct MI325X holt endlich H200 ein
Instinct MI325X holt endlich H200 ein (Bild: AMD)

Nvidia spielt noch in einer anderen Liga

In der Oberklasse ist auch Nvidia mit seiner 1.400-Watt-Lösung GB300 erstmals am Start. Das ist nur wenige Monate nach den ersten Tests mit GB200 und zeigt, wie schnell sich der Markt doch zu Blackwell Ultra hin entwickelt hat. Der neue Datentyp FP4 ist die neue Nvidia-Bastion, nur MI355X kann dies auch, AMD vermarktet dort aber lieber FP6.

Blackwell Ultra alias GB300 fegt Hopper vom Platz
Blackwell Ultra alias GB300 fegt Hopper vom Platz (Bild: Nvidia)

Nvidias Stärke ist weiterhin, dass auch 16 Partner mit ihrer Hardware Ergebnisse zeigen, die nahezu stets auf gleicher Höhe zu Nvidias Werten liegen. Da die Serversysteme bei neuen Nvidia-Lösungen aber die gleiche Basis haben und mitunter sogar aus den gleichen Fabs kommen, liegt dies schnell auf der Hand. Vor allem die Möglichkeiten, die Blackwell-Systeme bieten, sollen nun weiter ausgeschöpft werden, erklärt Nvidia in einem Blog-Beitrag.

Nvidia zeigt die Optimierungsmöglichkeiten von GB200-Systemen
Nvidia zeigt die Optimierungsmöglichkeiten von GB200-Systemen (Bild: Nvidia)

Wie sich die Kontrahenten in ML Commons schlagen, gibt die Pressemeldung preis.



Source link

Weiterlesen

Beliebt