KFA2 GeForce RTX 4080 SUPER SG - Test/Review (+Video)
Anfang 2024 war es so weit: NVIDIA hat seine drei SUPER-Modelle auf den Markt gebracht. Wir starten unsere Testserie mit der werksübertakteten KFA2 GeForce RTX 4080 SUPER SG.
Bei der neuen NVIDIA GeForce RTX 4080 SUPER handelt es sich lediglich um eine leicht „gepimpte“ 4080er. Die AD103-GPU der RTX 4080 SUPER wird im Vollausbau mit 80 SMs und 10.280 Shader-Einheiten verwendet. Die Differenz zum Non-SUPER-Modell mit 76 SMs beträgt also nur rund fünf Prozent. Dafür hat NVIDIA auch den Speicher beschleunigt, die 16 GByte GDDR6X können nun 736.3 statt 716.8 GByte/s übertragen. Die maximale Leistungsaufnahme bleibt mit 320 Watt gleich, obwohl NVIDIA zusätzlich die Basistaktrate um 0.96 Prozent von 2.205 auf 2.295 MHz sowie den Boost-Takt von 2.505 auf 2.550 MHz angehoben hat. Das liegt vor allem daran, dass die GeForce RTX 4080 ihre 320 Watt TGP in Spielen ohnehin selten voll ausschöpft, sodass etwas Spielraum bereits vorhanden war. Monitore können an der GeForce RTX 4080 SUPER über eine HDMI-2.1-Schnittstelle oder über drei DisplayPort-1.4-Ausgänge mit DSC angesteuert werden. DisplayPort 2.0 unterstützen der AD103 und die anderen Ada-Lovelace-GPUs nicht. Dasselbe gilt für PCIe 5.0, die Grafikkarte kann nur mit dem PCIe-4.0-Standard umgehen.
Erneut steht im Fokus die gesteigerte Raytracing-Leistung. Zur Erklärung: Die Technologie bietet im Grunde eine realistische Simulation von Licht und damit einhergehend Schatten und Reflexionen.
DLSS 3.0
Derzeit ausschließlich und exklusiv können Grafikkarten der 4000er-Serie DLSS 3.0 nutzen. Im Kern ist DLSS 3 nach wie vor DLSS 2, dessen Technologie und Feature-Set 1:1 übernommen wurde. Alle vier bekannten Qualitäts-Modi bleiben aus diesem Grund vorhanden und können in DLSS-3-Titeln wie gewohnt eingestellt werden. Es kommt aber ein wichtiges Feature dazu: Frame Generation (FG). Titel, die DLSS 3 unterstützen, werden diese Funktion auch genau so nennen.
Zur Erklärung: In DLSS 3.0 werden während des Einsatzes ganze Frames von der KI erzeugt und zwischen die „echten“, also tatsächlich von der CPU und Grafikkarte berechneten Bilder eingefügt. Das funktioniert folgendermaßen: Die Grafikkarte berechnet etwa mit DLSS-Performance ein Bild in Viertelauflösung, darauf wird dieses als erstes Bild zurückgehalten. Wenn der zweite, ebenfalls mittels DLSS in reduzierter Auflösung erstellte, zweite Frame von der Grafikkarte berechnet wurde, wird der erste, bislang zurückgehaltene Frame, dazu genutzt, aus den Informationen des ersten mithilfe des zweiten Frames einen komplett neuen, von der KI erstellten Frame zu interpolieren.
Darauf wird Frame 1, der generierte KI-Frame (NVIDIA nennt diesen „Frame 1.5“), vor dem zweiten Frame ausgegeben. Letzterer dient zugleich wieder als Basis für die folgende KI-Berechnung („Frame 2.5“). DLSS 3.0 rendert also immer einen Frame, darauf folgt ein KI-Frame, darauf ein weiterer berechneter Frame, dann wieder ein KI-Frame. Jeder zweite Frame mit DLSS 3.0 ist also ein von der KI erzeugtes, „unechtes“ Bild, das zwischen tatsächlich gerenderten Frames, aus deren Informationen der KI-Frame erstellt wurde, eingeschoben wird. Vereinfacht sieht das Ganze so aus - Ausgang ist Viertelauflösung, also DLSS-Performance. In diesem Fall rendert die Grafikkarte also nur ein Achtel der tatsächlich auf dem Bildschirm sichtbaren Pixel. Der Rest entstammt dem Upsampling und den im Wechsel eingeschobenen KI-Frames.
Ein weiterer elementarer Bestandteil von DLSS 3.0 ist das ebenfalls von NVIDIA stammende Reflex. Dieses Tool dient im Normalfall dazu, die Systemlatenzen auszulesen, also etwa Ihre Latenz von Display, Maus und Grafikkarte zu erfassen und etwa ihre Reaktionszeit zu messen. Dank ins Spiel integrierter API kann Reflex allerdings auch Einfluss auf die Render-Queue nehmen. Mit diesem Eingriff können Latenzen verringert werden, denn im Normalfall hält die CPU bereits von ihr berechnete Frames zurück, bevor diese an die Grafikkarte zur Weiterverarbeitung gereicht werden. Der Grund dafür ist, dass so die Grafikkarte besser ausgelastet werden kann, da stets ein oder mehrere CPU-Frames in der Hinterhand gehalten werden, die GPU somit auch gefüttert werden kann, wenn es bei der CPU, dem Streaming oder dem Nachladen hängt. Diese zurückgehaltenen Frames erhöhen allerdings auch den Input-Lag, da diese Frames bereits so weit berechnet sind, dass ihre aktuelle Eingabe etwa an der Maus nicht mehr berücksichtigt werden kann. Dies ist natürlich insbesondere in schnellen Shootern unerwünscht - und in diesem Fall hilft Reflex ab.
Die Implementierung von Reflex ist für DLSS 3.0 wichtig, da es gegenüber nativem Rendering (oder auch gegenüber DLSS 2.x, FSR 2.x und XeSS) einen zusätzlichen Frame zurückbehält, um von diesem die KI-generierten Frames abzuleiten. Mit DLSS 3.0 würde also eine zusätzliche, für nicht wenige Spieler wohl merkliche Latenz entstehen, wenn Reflex nicht zum Einsatz käme. Mit DLSS 3.0 samt Reflex ist die Eingabelatenzen in etwa vergleichbar mit dem Spiel bei nativer Auflösung und gleicher Frame-Berechnungszeit.
Der Beitrag das diese Grafikkarte nur mit dem PCIe-4.0-Standard umgehen kann, stimmt nicht. Fakt ist ich benutze genau dieselbe ???? in einem alten X370 Mainboard. Der hat nur PCIe-3. Funktioniert wunderbar ????????. GPU-Z Tool sagt dasselbe. Angebunden mit 3.0
1 Kommentar
SailorMan76 vor 16 Tagen
Der Beitrag das diese Grafikkarte nur mit dem PCIe-4.0-Standard umgehen kann, stimmt nicht. Fakt ist ich benutze genau dieselbe ???? in einem alten X370 Mainboard. Der hat nur PCIe-3. Funktioniert wunderbar ????????. GPU-Z Tool sagt dasselbe. Angebunden mit 3.0
Antworten
Kommentar schreiben