Frage zu VRam und RT-Leistung

Pfeifenheini

Stammgast I
Themen-Ersteller
Feb 11, 2023
111
31
Moin zusammen,

nachdem mittlerweile die Spezifikationen von AMDs neuer GPU Generation durchgesickert sein soll (!), frage ich mich, warum die 8800xt nur 16 GB VRam haben soll. Mir ist schon klar, dass noch nix offizielles raus ist, aber gerade ist ja eh Spekulatiuszeit :D
Die 7900er GPUs bis auf die GRE haben ja üppige 20GB aufwärts VRam, sind dafür aber schwach im Raytracing. Die neue 8000er sollen nun besser im RT werden (obgleich ich die bisher kolportierten Leistungszuwächse nicht als realistisch einschätze), haben dafür aber weniger VRam. Bei Nvidia ist es ja seit Jahren ähnlich: tendenziell wenig VRam, dafür aber starke RT-Leistung. Ich frage mich nun, ob das technisch bedingt ist, also starke RT Chips nur mit wenig VRam zu haben sind? Die 4090 hat zwar auch 24GB VRam, kann quasi alles gut, ist durch den hohen Preis aber nicht massenmarkttauglich, zeigt mir aber, dass grundsätzlich beides möglich ist. Ich würde gerne den Zusammenhang zwischen wenig VRam und hoher RT-Leistung verstehen und inwiefern das technisch bedingt ist oder ob den Nutzern bloß die eierlegende Wollmilchsau vorenthalten wird.
 

Nobbi56

Ehrenmitglied
Feb 8, 2022
6.490
2.311
Hallo,

ich bin da kein Experte, aber nach den Infos im www scheint es tatsächlich so zu sein, dass die Aktivierung von RT auch den Bedarf an nutzbarem VRAM erhöht:



Ich frage mich nun, ob das technisch bedingt ist, also starke RT Chips nur mit wenig VRam zu haben sind?

Das glaube ich nicht, denn nach allem, was ich weiß, ist die hardwaretechnische Realisierung von RT unabhängig von dem verbauten VRAM. Wieviel VRAM verbaut wird, dürfte eher von den verwendeten Speicherchips und deren "Stückelung" abhänggen (also. z. B. nur 8 oder 16 GB möglich, aber keine Größen dazwischen, wie man ja an der RTX 4060Tu sieht) und daraus folgend wird es dann wohl eine Kostenfrage für die Hersteller sein, ob sie insbes. bei Karten der Einstiegs- oder Mittelklasse "mehr VRAM als nötig" verbauen.

nVidia hat sich ja auch immer mit dem angeblich besseren Speichermanagement im Vergleich zu AMD herausgeredet, weshab die "grünen" Karten weniger vRAM benötigen würden als die "roten". Lt. unabh. Tests ist das zwar nicht ganz falsch, aber der Unterschied ist wohl deutlich geringer als es die "grüne Propaganda" gerne proklamiert...

Hinzu kommt mMn nach, dass es dem nVidia Marketing (auch mit Hilfe einiger "Influencer" in den Medien??) gelungen ist, nicht nur RT, aondern auch upscaling am Markt durchzusetzen, und gerade durch DLSS (und Nachahmer FSR sowie XeSS) kann ja die GPU Last z. T. massiv verringert werden, was wiederum den "VRAM Hunger" einiger Spiele dämpfen kann. Überspitzt gesagt könnte Mr. Huang wohl sagen "Was braucht ihr VRAM, aktiviert dorch DLSS Performance und gut isses...😜"

(Auch wenn wohl umstritten ist, welchen Einfluss upscaling tatsächlich auf den VRAM Bedarf hat, hängt womöglich auch von der Implementierung, dem Grad von RT und den Spielen ab).

Kurz gesagt, ich glaube, es ist kein Zufall, dass nVidia mit VRAM mehr "geizt" als die Konkurrenz, das hat mMn weniger technische als rein ökonomische Gründe, Stichtwort Profitmaximierung durch maximale Kosten-/Nutzen-Effizienz. => erst mal "poor man's version" anbieten, dann abwarten, wie der Markt reagiert, und nur handeln, wenn der Erfolg zu wünschen übrig lässt (s. RTX 4960Ti oder auch RTX 4070TiS, bei der man wohl nur deshalb von 12 auf 16 GB gegangen sein dürfte, um die Preiserhöhung zu rechtfertigen und gleichzeitig besser die im Preis gesunkene RX 7900XT angreifen zu können, die mit ihren fetten 20 GB wuchern kann, dafür aber bei RT abk*ckt...).

LG N.
 
  • Gefällt mir!
Reactions: Pfeifenheini

Pfeifenheini

Stammgast I
Themen-Ersteller
Feb 11, 2023
111
31
ich bin da kein Experte, aber nach den Infos im www scheint es tatsächlich so zu sein, dass die Aktivierung von RT auch den Bedarf an nutzbarem VRAM erhöht:
Okay, den Artikel habe ich bei meiner zugegebenermaßen oberflächlichen Recherche nicht gefunden :D Danke schonmal dafür!
Mir ist auch klar, dass die Grafikchips unterschiedlich schnell sind, daher interessierte mich nur das Verhältnis von VRam zu RT. Aber das bestätigt meine Theorie zu einem, naja, Vorenthalten von möglicher Leistung. Und klar ist auch, dass wenn der Kunde zahlt, die Techkonzerne die Preise dermaßen diktieren können.

Interessant ist natürlich das Upscaling. Habe in der PCGH etwas dazu gelesen und besonders beachtenswert fand ich (ich meine es war in der letzten Ausgabe zu AMD), dass die Upscalingverfahren zwar mehr FPS bieten, man dabei aber dennoch höhere Frametimes mit einkauft. Das ist meiner Meinung nach auch nicht im Sinne des Nutzers, daher würde ich eher zu mehr VRam tendieren, um möglichst gute native Bilder zu berechnen als zur besseren Upscalingtechnologie. Aber gut, wer weiß schon, wie sich das Verfahren in Zukunft entwickeln wird. Bleibt spannend
 

Nobbi56

Ehrenmitglied
Feb 8, 2022
6.490
2.311
man dabei aber dennoch höhere Frametimes mit einkauft.

Vorsicht, da musst du unterscheiden zwischen einerseits den verschiedenen upscaling-Technologien (DLSS, FSR, XeSS) und andererseits dem Feature "Frame Generation":

Beim upscaling wird ja jeder Frame intern mit eine rniedrigeren Auflösung als die des Monitors berechnet (bei DLSS Performance z. B. auf FHD statt 4K) und dann anschließend (bei DLSS und bei XeSS mittels KI und "deep learning") auf die originäre Auflösung hochskaliert - mit mehr oder weniger optischen Verlusten. Dadurch werden die fps mMn nach tatsächlich real erhöht, eben weil die Graka mit der niedrigeren Auflösung weniger Frames pro Zeiteinheit berechnen muss.

Erwas ganz anderes ist aber "Frakme Generation" (auch, wenn nVidia das durch ein missglücktes Namensshema verschleiert): Hier wird zwischen jeweils zwei "echten" gerenderten Bildern ein unechter, weil rechnerisch interpolierter Frame eingeschoben. Weil jetzt aber die GraKa nach jedem "echten" Frame warten muss, bis der nächste berehcnet wird, um dann die Interpolation vorzunehmen, kann die Framerate nicht verdoppelt werden. Zudem reagieren nur echte Frames auf Eingabebefehle, weshalb sich eine eine gewisse Verzögerung (Latenz) in der Reaktivität beim Gameplay ergibt, das Spiel kann sich zwar flüssiger , aber zugleich "träger" bei der Steuerung anfühlen (was insbes. bei kompetitiven MP-Shootern misslich ist). nVidia hat versucht, dem mit dem weiteren Feature "Reflex" entgegenzuwirken (bei AMD heißt es Anti-Lag 2).,


Ich weiß jetzt nicht, ob du auf diese Zusammenhänge anspielt; bin zwar auch PCGH Abonnent :cool: , habe aber in der letzten Print-Ausgabe 01/2025 auf den 1. Blick dazu nichts gefunden, falls du dich noch erinnerst, gib mal den entsprechendne Artikel an, dannshcaue ich mochmal, ob es das ist, was ich meine.

LG N.
 

Pfeifenheini

Stammgast I
Themen-Ersteller
Feb 11, 2023
111
31
Ah du hast Recht, ich meinte AMFM 2. Dazu gabs einen Artikel in der vorigen Ausgabe, 12/2024.
Bei den drölfzig Begriffen kann man ja mal durcheinanderkommen :D
Ich erinnere mich auch, dass ich FSR bei Avatar genutzt habe, weil meine RX7900xt da stellenweise überfordert war und ich Abstürze hatte. Das lief zugegebenermaßen ziemlich gut. Ich kann mich aber nicht daran erinnern, ob FG auch lief, jedenfalls ist mir nichts unangenehm aufgefallen. Da habe ich zum ersten Mal gelernt, dass Upscaling doch ganz nützlich sein kann.