Wie wohl die RDNA 2.0 Karten mit HBM2 performen würden?
Die Radeon R9 Fury bzw. Fury X waren die ersten Karten von AMD mit HBM. Das Problem der beiden Karten waren die GCN Architektur als auch die 4 GB VRAM. Bei der ersten Generation von HBM war es nur möglich 4 GB an VRAM zu verbauen, währenddessen der Konkurrent der FURY X, die 980Ti auf 6 GB klassischen GDDR5 setzte. Trotz größerer Speicherbandbreite (512 GB/s vs. 336,6 GB/s), größerem Powerlimit (275W vs. 250W) und mehr Shadereinheiten (4096 vs. 2816) war die Fury X in nahezu allen Benchmarks langsamer als die 980Ti. Erst bei steigender Auflösung konnten die Shadereinheiten der AMD Karte besser ausgelastet werden (ein bekanntes Problem der GCN Architektur), jedoch machte hier der kleinere VRAM einen Strich durch die Rechnung. Der Sieger in dieser Runde: Nvidia
AMDs Experimente mit HBM gingen in die nächste Runde: Die Vega 56 bzw. Vega 64 waren geboren.
Diesmal wurde HBM2 verbaut. Damit war es möglich, dass AMD 8 GB an VRAM verbauen konnte, genau so viel wie die Gegenstücke von Nvidia (1070 bzw. 1070ti und 1080). Während AMD weiterhin auf HBM setzte, blieb Nvidia ihrer Linie treu und verbaute GDDR5 bzw. GDDR5X. Auch diesmal hatten die AMD Karten die höhere Speicherbandbreite (483,8 GB/s vs. 320,3 GB/s), das höhere Powerlimit (295W vs. 180W) und mehr Shadereinheiten (4096 vs. 2560), konnten aber dennoch kaum an der 1080 vorbeiziehen (Außer in DX12 Spielen). Auch hier war zum größten Teil die Architektur schuld (Immer noch GCN, wenn auch in der 5. Generation). Sieger in dieser Runde: Nvidia, da die 1080ti ohne Konkurrenz blieb.
Nach den beiden durchwachsenen Versuchen mit HBM hat sich AMD wieder dem klassischen GDDR Speicher zugewendet. Vorteil davon ist unter anderem, dass der Preis pro GB geringer ist.
Es folgte Navi mit der 5700XT als Speerspitze. Diese setzte auf GDDR6, eine neue Architektur (RDNA 1.0) und TSMCs 7 nm Fertigung. Wenn man die technischen Daten überfliegt, könnte man meinen, dass diese Karte in allen belangen gegenüber der Vega 64 ein Rückschritt ist. So hat sie nur noch 2560 Shadereinheiten, klassischen GDDR Speicher und eine geringeren Speicherdurchsatz. Sieht man sich aber Benchmarks an, so wird man merken, dass die 5700XT die Vega 64 zum Frühstück vernascht. Die Ursache dafür ist die neue Architektur.
Als (scheinbar) Machbarkeitsstudie legte AMD noch einmal eine Vega Karte (als Vega Generation 2), die Radeon VII, neu auf. Diesmal mit 16 GB HMB2, 3840 Shadereinheiten und vollem Speicherinterface von 4096 Bit und daraus resultierenden Speicherbandbreite von 1024 GB/s. Trotz dieser brachialen Daten und der 7nm Fertigung von TSMC war sie am Ende nur so schnell wie die 5700XT.
Jetzt mit RDNA 2.0 hat AMD erstmals seit 2015 wieder einen Konkurrenten bis rauf zu Nvidias Flagship der 3090 mit der 6900XT. In 1080p und 1440p liegt die 6900XT sogar vor der 3090, in UHD dreht sich das Bild und die 3090 übernimmt wieder die Führung. Die Ursache hierfür liegt vermutlich am Infinity Cache und der Speicherbandbreite. In 2160p werden die 128 MB des Infinity Caches nicht mehr ganz ausreichen und die Daten müssen in den normalen Vram, der nur mit 512 GB/s (Zum Vergleich die 3090 hat 936,2 GB/s) angebunden ist, ausgelagert werden.
Nun stelle ich mir die Frage, inwiefern besser oder schlechter die RDNA 2.0 Karten mit der Speicherbandbreite der Radeon VII performen würden.