Connect with us

Künstliche Intelligenz

AMD Ryzen AI Embedded P100: x86-CPU mit NPU für Edge- und Physical-AI


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

AMDs Prozessorbaureihe Ryzen AI Embedded P100 ähnelt der Mobil-CPU-Familie Ryzen AI 400, zielt aber auf Embedded Systems. Sie kombiniert Allzweck-x86-Prozessorkerne (Zen 5) mit einer relativ starken integrierten Grafikeinheit (IGP), einer Neural Processing Unit (NPU) mit 50 Tops sowie großem DDR5- oder LPDDR5X-Hauptspeicher. Dazu kommen leistungsfähige I/O-Schnittstellen wie PCI Express 4.0, USB4/Thunderbolt 4 und Displayport beziehungsweise HDMI für bis zu vier 4K-Displays oder zweimal 8K/120 Hz.

Weiterlesen nach der Anzeige

Auf der Fachmesse Embedded World 2026 in Nürnberg zeigen laut AMD mehrere Partnerfirmen Mainboards und Rechenmodule mit Ryzen AI Embedded P100, etwa Congatec, Kontron und Advantech. Die Messe findet vom 10. bis 12. März statt. Die Prozessoren eignen sich für Anwendungen wie bildgebende Medizintechnik, Robotik, selbstfahrende Transportsysteme (Physical AI) sowie Steuerungs- und Überwachungsrechner mit KI-Funktionen. Letztere nennt der Branchenjargon oft auch Edge AI. Die Embedded-Prozessoren von AMD stecken wegen ihrer relativ starken GPU und vielen Display-Ausgängen auch in zahlreichen Spielautomaten.

Nicht alle Varianten des Ryzen AI Embedded P100 sind bereits lieferbar, bei manchen startet die Produktion erst im dritten Quartal. Die Ryzen AI Embedded P100 mit vier oder sechs CPU-Kernen hatte AMD bereits im Januar angekündigt. Wirklich neu sind jetzt die Versionen mit 8, 10 oder 12 Kernen.


Abbildung AMD Ryzen AI Embedded P100

Abbildung AMD Ryzen AI Embedded P100

Prozessoren der Baureihe AMD Ryzen AI Embedded P100 haben bis zu 12 CPU-Kerne. Grafikseitig gibt es den Vollausbau mit 16 Compute Units beziehungsweise acht Work Group Processors (WGPs). Das entspricht 1024 Shadern.

(Bild: AMD)

Bisher spezifiziert AMD nicht die genauen Mischungen aus Zen-5- und Zen-5c-Kernen in den einzelnen Ryzen AI Embedded P100. Die Ryzen AI 400 haben maximal vier Zen-5-Kerne, die restlichen sind vom Typ Zen 5c.

Im zweiten Halbjahr will AMD den Ryzen AI Embedded X100 mit bis zu 16 Zen-5-Prozessorkernen nachschieben. Der Ryzen AI Embedded P100 konkurriert mit Embedded-Versionen des Intel Core Ultra 300 „Panther Lake“.

Weiterlesen nach der Anzeige

Embedded-Prozessoren AMD Ryzen AI Embedded P100
Prozessor CPU-Kerne Turbo-Takt L3-Cache NPU 10GE-MAC
mit TSN
TDP Temperatur-Bereich
Ryzen AI P185 12 5,1 GHz 24 MByte 50 Tops 28 W* 0 – 105 °C
Ryzen AI P185i 12 5,1 GHz 24 MByte 50 Tops 28 W* -40 – 105 °C
Ryzen AI P174 10 5,0 GHz 24 MByte 50 Tops 28 W* 0 – 105 °C
Ryzen AI P174i 10 5,0 GHz 24 MByte 50 Tops 28 W* -40 – 105 °C
Ryzen AI P164 8 5,0 GHz 16 MByte 50 Tops 28 W* 0 – 105 °C
Ryzen AI P164i 8 5,0 GHz 16 MByte 50 Tops 28 W* -40 – 105 °C
Ryzen AI P132 6 4,5 GHz 8 MByte 50 Tops 2 28 W* 0 – 105 °C
Ryzen AI P132i 6 4,5 GHz 8 MByte 50 Tops 2 28 W* -40 – 105 °C
Ryzen AI P132a 6 3,65 GHz 8 MByte 50 Tops 2 45 W** -40 – 105 °C
Ryzen AI P121 4 4,4 GHz 8 MByte 30 Tops 2 28 W* 0 – 105 °C
Ryzen AI P121i 4 4,4 GHz 8 MByte 30 Tops 2 28 W* -40 – 105 °C
Ryzen AI P121a 4 3,65 GHz 8 MByte 30 Tops 2 28 W* -40 – 105 °C
i-Versionen: Indfustrie-Temperaturbereich, a-Versionen: Automotive, AEC-Q100
* configurable TDP (cTDP) von 15 bis 45 Watt; P122a: 15 – 30 W, ** P132a: 25 – 45 W


(ciw)



Source link

Künstliche Intelligenz

Wegen KI-Kosten: Microsoft will mit Abfindungen rund 9000 Stellen abbauen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Microsoft will die Zahl der Angestellten in den USA mit einem freiwilligen Abfindungsprogramm um bis zu sieben Prozent verringern, das wären fast 9000 Stellen. Die Personalchefin habe erklärt, dass Abfindungsangebote an fast alle Mitarbeiter und Mitarbeiterinnen gehen würden, deren Alter plus ihre Jahre bei Microsoft die Summe 70 erreicht oder übersteigt, berichtet unter anderem die New York Times. „Wir hoffen, dass das Programm den Berechtigten die Gelegenheit eröffnet, diesen nächsten Schritt nach ihren eigenen Vorstellungen und mit großzügiger Unterstützung des Unternehmens zu gehen“, zitiert die Zeitung aus dem Rundschreiben. Der geplante Stellenabbau fällt in eine Zeit wachsender Kosten für den Auf- und Ausbau von Rechenkapazität für KI-Technik.

Weiterlesen nach der Anzeige

Für Microsoft ist das Abfindungsprogramm nicht die erste Maßnahme zur Senkung der Personalkosten, für die Betroffenen dürfte sie aber merklich angenehmer sein als die bisherigen Stellenstreichungen. In mehreren Wellen hat der Konzern allein 2025 Tausende Jobs gestrichen, betroffen waren alle Unternehmensbereiche. Zuletzt hatte der Konzern laut CNBC etwa 228.000 Beschäftigte weltweit, 125.000 davon in den USA. Nur an letztere richtet sich jetzt das Angebot, ausgenommen sind den Berichten zufolge bestimmte Führungspositionen sowie Angestellte mit Arbeitsverträgen, die Prämien für einen erreichten Umsatz enthalten. Wie viele der etwa 8750 Berechtigten das Abfindungsangebot angesichts des schwierigen Arbeitsmarkts annehmen, ist noch unklar.

Ungefähr zeitgleich zu Microsoft hat Meta sogar angekündigt, etwa zehn Prozent der Angestellten entlassen zu wollen. Betroffen sind bei dem Facebook- und Instagram-Konzern knapp 8000 Menschen. Zudem sollen 6000 Stellenausschreibungen zurückgezogen werden. Die Kündigungen werden ausdrücklich auch Mitarbeiter betreffen, die „wertvolle Beiträge“ geleistet haben, hat die Personalabteilungsleiterin in einem internen Rundschreiben erklärt. Begründet wurde der Schritt mit den hohen Investitionskosten in KI-Infrastruktur, derselbe Grund, der auch hinter dem Abfindungsprogramm von Microsoft stecken dürfte. Die großen Tech-Konzerne stecken weiterhin Milliardensummen in den Aufbau von Rechenzentren, und die Investitionssumme soll noch weiter steigen.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Last Call: Digitale Souveränität – Cloud, KI und Security krisensicher machen


Clouddienste, KI-Systeme und Kommunikationsplattformen stammen überwiegend von wenigen internationalen Anbietern – Daten fließen dabei oft unkontrolliert ab. Im Classroom Digitale Souveränität in der Praxis – Cloud, KI und Security krisensicher gestalten zeigt unser Experte Manuel „HonkHase“ Atug, wie man Abhängigkeiten systematisch identifiziert und Risiken bewertet. Teilnehmerinnen und Teilnehmer erlernen konkrete Strategien, um ihre digitale Selbstbestimmung zurückzugewinnen und sich dabei aus Kostenfallen zu befreien.

Weiterlesen nach der Anzeige

Zunächst erhalten Teilnehmende einen umfassenden Überblick zur politischen Weltlage. Unser Experte ordnet dabei ein, welchen Einfluss diese auf digitale Souveränität und Abhängigkeiten in der IT hat. Er geht auf die Rolle der Big-Tech-Konzerne ein und wie man sich mit Derisking statt Decoupling absichert, ohne direkt alle Arbeitsgewohnheiten ändern zu müssen. Im weiteren Verlauf stehen souveräne Optionen für die Cloud- und KI-Nutzung im Fokus, um die teils gravierenden Risiken in der täglichen Nutzung zu umgehen, insbesondere den Kontrollverlust über die eigenen Daten und potenziell eskalierende Kosten. Mit einem Schutz vor Vendor-Lock-in und einer durchdachten Exitstrategie für den Notfall macht man sich weniger angreifbar und setzt Cloud und KI souverän ein.

Auch zahlreiche Kommunikationsmittel stehen unter der Kontrolle weniger mächtiger Konzerne. Hier bietet die klassische E-Mail als dezentrales Medium ohne Plattformbindung entscheidende Vorteile, die wiederum durch Clouddienste zunehmend untergraben werden, etwa Microsoft 365. Selbiges gilt für die meisten Office-Rechner, die Windows einsetzen und somit ebenfalls von Microsoft abhängen. Hier bieten Linux und Open-Source-Software Auswege aus der Abhängigkeit, die den kommerziellen Lösungen in vielen Bereichen ebenbürtig sind und weit kalkulierbarere Kosten verursachen.




Bereits ab dem zweiten Classroom oder einem Classroom und drei Videokursen rechnet sich unser Professional Pass mit Zugriff auf den gesamten heise academy Campus!

Jetzt entdecken

Abschließend widmet sich unser Experte dem Thema Security und erklärt, welche entscheidenden Vorteile digitale Souveränität bietet. Er stellt Open-Source-Sicherheitswerkzeuge vor und zeigt, was eine wirklich souveräne IT-Infrastruktur ausmacht – von der Datenverarbeitung ausschließlich in der EU bis hin zur vollständigen Einhaltung europäischer Gesetzgebung als Sicherheitsvorteil. Die Termine des Classrooms lauten:

  • 11.05.26: Digitale Souveränität verstehen – Abhängigkeiten erkennen und strategisch handeln
  • 18.05.26: Cloud und KI souverän nutzen – Risiken erkennen, Strategien entwickeln
  • 01.06.26: Unabhängige Kommunikation im Unternehmen – dezentrale Alternativen für Social Media, Messenger, E-Mail und Suchmaschinen
  • 08.06.26: Open-Source-Lösungen und freie Standards – Praxisstrategien für Office-Alternativen, Browser und mehr
  • 15.06.26: IT-Sicherheit durch digitale Souveränität – Herstellerunabhängigkeit mit Open Source

Weiterlesen nach der Anzeige

Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmende können sich untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive.

Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.


(cbo)



Source link

Weiterlesen

Künstliche Intelligenz

Visual Studio Code 1.117: Unternehmenskunden können eigene LLM-Keys nutzen


Visual Studio Code 1.117 steht zum Download bereit. Das neue Release von Microsofts Sourcecode-Editor erweitert die KI-Fähigkeiten des Chats, bringt ein experimentelles neues Chat-Rendering und aktualisiert die App „Visual Studio Code Agents“, die derzeit nur Teilnehmende des Insider-Programms verwenden können.

Weiterlesen nach der Anzeige

Nutzerinnen und Nutzer von GitHub Copilot in einer Business- oder Enterprise-Edition können nun ihre eigenen API-Keys für Sprachmodelle einsetzen, bekannt als „Bring your own language model key (BYOK)“. Somit lassen sich Anbieter wie OpenRouter, Ollama, Google oder OpenAI einbinden, um deren Large Language Models im VS-Code-Chat zu nutzen.

Standardmäßig deaktiviert, können Admins BYOK mit der „Bring Your Own Language Model Key“-Richtlinie in den Copilot-Richtlinieneinstellungen aktivieren. Dabei können sie festlegen, welche Modellanbieter in ihrem Unternehmen zulässig sind. Anschließend können Organisationsmitglieder Modelle von integrierten Anbietern direkt in VS Code auswählen oder Extensions von Anbietern aus dem Visual Studio Code Marketplace installieren.

Die Vorteile liegen nicht nur in der größeren Modellauswahl, die über die integrierten Modelle hinausgeht, sondern auch darin, dass die integrierten Modelle dann nicht den Standard-Rate-Limits unterliegen. Dabei ist zu beachten, dass sich die „mitgebrachten“ Modelle lediglich auf den Chat auswirken, nicht auf Inline-Vorschläge oder andere KI-gestützte Features in VS Code.

Weiterlesen nach der Anzeige

Als ein experimentelles Feature kann der VS-Code-Chat nun inkrementell rendern. Dadurch sollen die Chat-Antworten flüssiger und natürlicher wirken. Die Inhalte erscheinen blockweise mit optionalen Animationen, etwa fade, blur oder slide.

Darüber hinaus hat die App „Visual Studio Code Agents“ ein Update erhalten. Diese befindet sich noch im Preview-Status und ist VS-Code-Insidern vorbehalten. Die App bietet eine Agent-native Umgebung, in der sich parallele Sessions über Repos hinweg ausführen, Diffs inline betrachten und mehrschrittige Coding-Aufgaben durchführen lassen. Im neuen Release können Entwicklerinnen und Entwickler Sub-Sessions aus aktuellen Sessions erstellen. Neben weiteren Updates wurde auch die User Experience in der App überarbeitet.

Die offizielle Ankündigung informiert über diese und weitere neue Features in Visual Studio Code 1.117.


(mai)



Source link

Weiterlesen

Beliebt