Künstliche Intelligenz

25 Jahre Radeon-Grafikkarten | heise online


Der Name Radeon dürfte den meisten c’t-Lesern als einer von zwei großen Marken für Spielegrafikkarten geläufig sein. Das Licht der Welt erblickte er vor 25 Jahren, damals noch als Kreation der kanadischen Firma ATI. Die hat in der Zwischenzeit der Prozessorhersteller AMD geschluckt, und aus dem einstigen PC-Grafikchip wurde eine ganze Produktfamilie. Zu der gehören unter anderem die Accelerated Processing Units (APUs) genannten Kombiprozessoren, die seit mehr als zehn Jahren die Spielkonsolen Xbox und Playstation antreiben. Aber auch die Instinct-KI-Beschleuniger haben ihre Wurzeln in den Recheneinheiten der Radeon-Chips. Und dass die integrierte Grafik von Qualcomms Snapdragons „Adreno“ heißt, ist auch kein Zufall: Der Name ist ein Anagramm von „Radeon“ und deutet auf ihren Ursprung hin.

Allein in den Gamingchips stieg die Anzahl der Schaltungen seit der Ur-Radeon um beinahe den Faktor 1800 und in den 16 GByte großen Speicher der aktuellen Radeon 9070 passen 256-mal so viele Daten wie in den des Stammvaters. Wir werfen anlässlich des 25-jährigen Radeon-Jubiläums daher einen Blick auf die Höhen und Tiefen, die Entdeckung von Grafikchips als Rechenbeschleuniger und den Konkurrenzkampf mit Nvidia.

  • Radeon-Grafikkarten gibt es seit 25 Jahren, anfänglich noch unter der Marke ATI.
  • Nach dem Aufkauf durch AMD rückte die Compute-Eignung stärker in den Fokus.
  • 2025 nutzt der schnellste Top500-Supercomputer integrierte CPU-/Beschleuniger-Chips von AMD.

Im April 2000, ein gutes dreiviertel Jahr nach Nvidias GeForce 256, kündigte ATI die Radeon 256 an – beide trotz der Zahl ohne entsprechend breite Schnittstelle zum Grafikspeicher. Am 17. Juli standen dann die ersten Tests online, zu kaufen gab es die neuen Karten aber erst ab August 2000.


Das war die Leseprobe unseres heise-Plus-Artikels „25 Jahre Radeon-Grafikkarten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Beliebt

Die mobile Version verlassen