Connect with us

Künstliche Intelligenz

KI-Agenten: Sprachmodelle bedienen eigenständig Software | c’t uplink


Sprachmodelle agieren zunehmend agentisch: Sie steuern selbstständig Desktop- und Web-Apps, zum Beispiel Google Mail oder PayPal, und nehmen Anwendern manche Routinearbeit ab. Das relativ neue Model Context Protocol (MCP) ist eine Schlüsseltechnik dafür. Es bietet eine einheitliche Schnittstelle, mit der Modelle egal welches Anbieters loslegen können.


Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Den wöchentlichen c’t-Podcast c’t uplink gibt es …

Drei c’t-Redakteure haben sich das neue Protokoll genauer angesehen, KI-Agenten damit erstaunliche Dinge erledigen lassen und bewertet, wie riskant das Ganze ist. Im c’t uplink erzählt Jo Bager, was das Sprachmodell Claude auf sein Kommando (und auch ungefragt) geschafft hat. Jan Mahn erklärt, wie MCP funktioniert und worauf Firmen bei der Nutzung achten sollten. Sylvester Tremmel warnt vor den Sicherheitsrisiken der noch jungen Technik.

Zu Gast im Studio: Jo Bager, Jan Mahn, Sylvester Tremmel
Host: Greta Friedrich
Produktion: Ralf Taschke

Mehr zum Thema KI-Agenten und zum Model Context Protocol finden Sie in der c’t-Ausgabe 17/2025, auf ct.de sowie in der c’t-App für iOS und Android. Die Ausgabe 17/2025 gibt es ab dem 8. August 2025 am Kiosk.

In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.

c’t Magazin
c’t auf Mastodon
c’t auf Instagram
c’t auf Facebook
c’t auf Bluesky
c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!


(gref)





Source link

Künstliche Intelligenz

Samsung-SSDs: 256 TByte 2026, 512 TByte 2027


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Samsung will ab dem Jahr 2026 Server-SSDs mit einer Kapazität von 256 TByte anbieten und 2027 auf 512 TByte verdoppeln. Ersteres Modell verwendet noch PCI Express 5.0, die 512-TByte-Variante dann das neue PCIe 6.0. Das sagte der Speicherhersteller auf dem diesjährigen chinesischen Global Memory Innovation Forum (GMIF 2025). Chinesische Medien wie Pcpop berichten.

Beide SSDs kommen in einem Enterprise and Datacenter Storage Form Factor (EDSFF) – welches genau verrät Samsung noch nicht. Wahrscheinlich kommen die größten NAND-Flash-Bausteine mit Quadrupe Level Cells (QLC) zum Einsatz. Bei den Server-SSDs-Topmodellen sitzt mitunter ein ganzer Silizium-Wafer an Speicherchips auf den Platinen, mit entsprechend hohen Preisen.

Konkurrenten wie Micron wollen ebenfalls in den nächsten Jahren erst über 200 TByte und dann mehr als 500 TByte Kapazität erreichen.

Samsungs erste PCIe-6.0-SSD ist derweil die bereits gezeigte PM1763, die Anfang 2026 für Serverhersteller verfügbar sein soll. Zu den Spezifikationen schweigt sich Samsung noch aus. Klar ist nur, dass sie keine Kapazitätsrekorde brechen wird.

Der sogenannte Z-NAND soll offenbar zurückkehren. Ursprünglich entwickelte Samsung ihn als Konkurrenzprodukt zu Intels Phasenwechselspeicher 3D Xpoint (als Octane vermarket) mit besonders niedrigen Latenzen. Nach jahrelanger Ruhe sprach Samsung auf dem GMIF 2025 plötzlich von der siebten Generation, die für KI-Server erscheinen soll.

Damals erreichte Z-NAND niedrige Latenzen unter anderem durch den Einsatz von Single Level Cells (SLC), die ein Bit pro Zelle beschreiben, kleine Page-Dateigrößen und die Parallelisierung der Zugriffe. Die nächste Z-SSD-Generation soll enger mit KI-Beschleunigern zusammenarbeiten: Samsung spricht von direkten Speicherzugriffen auf die SSDs, etwa durch GPUs. Vermutlich arbeitet der Speicherhersteller mit Nvidia zusammen, der solche Techniken vorantreibt.

Der SSD-Controller-Hersteller Innogrit war auch auf dem chinesischen Event anwesend. Er arbeitet an Controllern, die GPUs ebenfalls einen direkten Zugriff auf SSDs erlauben. Zudem will Innogrit Nvidias Wunsch nach SSDs nachkommen, die Richtung 100 Millionen Input/Output-Operationen pro Sekunde (IOPS) gehen.

Ein PCIe-6.0-Controller fürs Jahr 2026 soll etwa 25 Millionen IOPS schaffen, liest dafür aber geradezu winzige 512-Byte-Blöcke aus. Die OPS sind daher nicht mit PC-SSDs vergleichbar, die typischerweise auf 4-KByte-Blöcke setzen.

Die vielen Zugriffe müssen zudem Prozessoren erst einmal schaffen. In modernen Desktop-PCs und Notebooks stellen selbst 16-Kerner häufig einen Flaschenhals dar, der die IOPS bremst. Herstellerangaben sind dort stets Bestwerte.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Webex macht Vision Pro fit für Unternehmenseinsatz


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Apple Vision Pro erhält mit einer neuen Webex-Funktion erweiterte Möglichkeiten für die Zusammenarbeit in Unternehmen. Cisco hat auf seiner Konferenz WebexOne 2025 die „3D Model Collaboration“ vorgestellt, die es Teams ermöglichen soll, während Videokonferenzen gemeinsam 3D-Modelle zu betrachten und zu bearbeiten. Dadurch soll mithilfe des 3999-Euro-Headsets eine neue Art von Remote-Zusammenarbeit möglich sein.

Die neue Kollaborationsfunktion ermöglicht es Meeting-Teilnehmern laut Cisco, 3D-Modelle in Echtzeit zu bearbeiten, zu rotieren und zu vergrößern, als würden die Objekte physisch vor ihnen auf einem Tisch liegen. Meeting-Hosts können dabei steuern, welche Teilnehmer Bearbeitungsrechte erhalten. Zusätzlich lassen sich mehrere Modelle parallel anzeigen und vergleichen. Cisco verspricht sich davon eine deutliche Verbesserung der hybriden Arbeitsweise, bei der Teams geografisch verteilt an komplexen Projekten arbeiten.

Besonders für Branchen wie Automobilbau, Architektur und Gesundheitswesen ergeben sich Anwendungsszenarien. Autohersteller könnten Prototypen begutachten, ohne dass Ingenieure um die Welt fliegen müssen. Architekten könnten Kunden durch Gebäudeentwürfe führen, bevor der erste Spatenstich erfolgt. Medizinische Ausbildungseinrichtungen könnten anatomische Modelle ohne teure physische Nachbildungen nutzen.

Die neue Webex-Integration unterstützt Apples verstärkte Bemühungen, die Vision Pro im Unternehmensbereich zu etablieren. Seit dem Marktstart im Februar 2024 kämpft das Headset mit schwachen Verkaufszahlen im Konsumentenbereich. Laut Marktanalysen wurden weniger als eine Million Geräte weltweit verkauft.

Enterprise-Anwendungen könnten jedoch die Wirtschaftlichkeit des Geräts rechtfertigen. Wenn Unternehmen durch den Einsatz der Vision Pro Reisekosten sparen, Produktzyklen beschleunigen oder Schulungen verbessern können, relativiert sich der hohe Anschaffungspreis.

Parallel arbeitet Apple an weiteren Verbesserungen für das Headset. visionOS 26 verbessert beispielsweise die iPhone-Integration deutlich, sodass Nutzer das Smartphone auch in der vollen Immersion bedienen können, ohne das Headset absetzen zu müssen.

Die 3D Model Collaboration steht ab sofort für Webex-Nutzer auf der Apple Vision Pro zur Verfügung. Die App ist im App Store verfügbar; alle Nutzer mit gültigen Webex-Zugangsdaten können die Funktion verwenden. Cisco bietet das Feature auch für Inhaber kostenloser Accounts an, richtet sich aber primär an Unternehmenskunden mit bestehenden Webex-Verträgen.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Alexa+: Amazons neue Assistentin jetzt im „Early Access“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit dem Erfolg von ChatGPT & Co war es nur eine Frage der Zeit, bis Amazon sein „klassisches“ Sprachassistenzsysteme Alexa mit einem neuen KI-Modell pimpt, um natürliche Konversationen zu ermöglichen. Und tatsächlich kündigte Amazon.com Ende 2023 eine überarbeitete Fassung an, die in der Lage sein sollte, längere Gespräche mit dem Nutzer zu führen und nicht nur einzelne Kommandozeilen abzuarbeiten.


Update

30.09.2025,

21:42

Uhr

Alexa+ ist in den USA als „Early Access“ verfügbar, die Meldung wurde angepasst.

Doch es dauerte bis zum Frühjahr 2025, bis Amazon seine „Alexa+“ genannte verbesserte Sprachassistentin offiziell auflegte – und selbst das geschah nur im Rahmen eines Betatests, in dessen Rahmen neue Funktionen Schritt für Schritt freigeschaltet wurden, und nur in den USA. Mit der Vorstellung der neuen Hardware am Dienstag ist Alexa+ einen Schritt weiter: Der Dienst ist in den USA frei verfügbar, sein Status wird von Amazon aber mit „Early Access“ bezeichnet.

Weitere Länder sollen folgen, darunter Deutschland und Österreich. Keine Angaben macht Amazon bislang aber zum Termin; klar ist nur, dass es auch hier wieder mit einer Beta losgeht.

Bei der Vorstellung am Dienstag ließ Amazon keine Gelegenheit aus, zu zeigen, dass sich Alexa+ in der gesamten heute gezeigten Produktpalette wiederfinden wird. Und dass es zwei wesentliche Unterschiede zur bisherigen Alexa gibt: Zum einen soll Alexa+ insgesamt stärker im Hintergrund arbeiten und nur bei Bedarf einspringen, ohne ständig vom Nutzer ausgerufen zu werden. Zum anderen soll sie sich vollkommen mit natürlicher Sprache bedienen lassen – was das Auswendiglernen von Kommandos überflüssig macht.

Der erste, „Ambient AI“ genannte Ansatz findet sich bei den Ring-Kameras etwa in einer Personenerkennung, dank derer die Ring-Videotürklingeln mit Alexa künftig Bekannte und Freunde automatisch grüßen, während sie Fremde von sich aus über den Grund des Besuchs ausfragen und die Informationen an den Nutzer weitergeben. Ein anderes Beispiel: Alexa nutzt die Ring-Kamera in der Küche, um zu erkennen, wenn der Sohn des Hauses diese betritt. Dann erinnert ihn die verbesserte Sprachassistentin etwa daran, dass er den Hund noch füttern muss.



Alexa+ kann analysieren, was die Ring-Kameras erfassen und dem Nutzer Meldungen und Zusammenfassungen liefern.

(Bild: heise Medien / Nico Jurran)

Die Bedienung mittels natürlicher Sprache wurde anhand von Fire-TV-Playern und -Fernsehern demonstriert, wo man etwa einfach nach „Serien mit chaotischen Chefs“ oder (wenn etwa gerade ein Film läuft) nach „Mehr Inhalten mit diesem Hauptdarsteller“ (ohne dessen Namen nennen zu müssen) rufen kann. Auch ein vergangenes Baseball-Spiel kann man sich so einfach anzeigen lassen, ohne selbst eine App aufrufen zu müssen. Zudem wurde die Suche nach bestimmten Stellen in einem Film vorgeführt. Auf Nachfrage heise onlines bestätigt Amazon, dass sich diese Funktion nicht dazu nutzen lassen wird, Zwangswerbung zu überspringen.

Schließlich zeigte Amazon, wie sich künftig auch Routinen im Smart Home mit natürlicher Sprache programmieren lassen, indem man etwa zu Alexa sagt „Ich möchte, dass alle Lichter ausgehen, wenn ich die linke Taste auf der Fernbedienung drücke“. Amazon erhofft sich davon, dass Alexa+ auch von Menschen genutzt wird, die bislang mit Sprachsteuerung nichts anfangen können.

Vergessen sollte man nicht, dass die Sprachbedienung im Unterschied zur gewöhnlichen Alexa nicht gebührenfrei ist. Für das Abo werden in den USA 19,99 Dollar monatlich fällig. Bisher wurde mit Preisen von 5 bis 10 Dollar spekuliert. Nichts extra zahlen muss, wer bereits Prime abonniert hat.

Hinweis: Der Autor wurde von Amazon zu der Veranstaltung in New York eingeladen. Amazon hat die Reisekosten übernommen.


(nij)



Source link

Weiterlesen

Beliebt