Czy na karcie graficznej NVIDIA GeForce RTX 2080 (bez Ti) da się komfortowo pograć w Battlefield V z włączonym ray-tracingiem?
O ray-tracingu w grach rozprawiano od dawna, ale dopiero teraz - dzięki nowym kartom graficznym NVIDIA Turing - stało się to rzeczywistością. O nowościach wdrożonych w kartach GeForce RTX możecie przeczytać w naszej publikacji NVIDIA Turing - co przynosi nowa architektura kart GeForce RTX?
Jeśli chodzi o testy wydajnościowe modeli GeForce RTX - te również możecie znaleźć na naszych łamach:
- NVIDIA GeForce RTX 2080 i 2080 Ti - test
- Gigabyte GeForce RTX 2080 Gaming OC - niereferencyjny Turing
- ASUS ROG STRIX RTX 2070 O8G GAMING - mocno dopalona 2070-tka
Pierwszą grą z opcją DXR (czyli właśnie ray-tracingiem) stał się Battlefield V, ale droga do wprowadzenia nowych opcji graficznych nie była prosta. Na początku gra w ogóle pozbawiona była opcji DXR, którą wprowadzono z nieco później. Trudno tu obwiniać wyłącznie NVIDIĘ, bowiem i Microsoft dołożył do tego opóźnienia swoje trzy grosze. Na starcie okazało się jednak, że premiera nowej technologii w tej grze była zdecydowanie przedwczesna - producent nie ustrzegł się wielu niedociągnięć, a włączenie ray-tracingu wiązało się z poważnym spadkiem szybkości działania gry.
Wydajność DXR PRZED wprowadzeniem poprawek (pierwsza wersja)
Przypomnijmy, że pierwsza wersja DXR w Battlefield V w rozdzielczości 2560 x 1440, i ustawieniach ultra (DirectX 12), działała z następującą wydajnością:
- bez DXR - średnio 70-100 klatek na sekundę
- DXR ultra - średnio 20-40 klatek na sekundę
Spadek wydajności po włączeniu DXR był olbrzymi. Technologia zaliczyła oczywisty falstart, bowiem okazało się, że wiele rzeczy nie działa tu prawidłowo. Jakość DXR można było regulować, ale jedynie ustawienia niskie i ultra działały prawidłowo. Ponadto szybko wyszło na jaw, że latające liście powodują znaczne spadki wydajności w przypadku DXR, co w ogóle nie powinno mieć miejsca. Jakby tego było mało, również opcje Chromatic Aberration, Film Grain, Vignette i Lens Distortion powodowały problemy. W internecie rozległ się ryk protestu graczy, który był zdecydowanie głośniejszy w przypadku osób, które zdążyły już zainwestować w karty RTX (bo jak pamiętamy ray-tracing jest dostępny wyłącznie na tych kartach graficznych).
Poprawki, poprawki...
Zarówno EA i NVIDIA musiały tu zdecydowanie zadziałać i... stała się światłość - szybko opracowano i udostępniono odpowiednie poprawki. A było ich trochę: ulepszono stabilność działania gry po włączeniu DXR, wydajność implementacji śledzenia promieni (również na liście i roślinność), poprawiono jakość przez wykorzystanie danych z bufora ramki, usunięto nieaktywną geometrię i naprawiono ustawienia średnie DXR. Wedle NVIDII wprowadzone poprawki pozwalają na:
- osiągnięcie ponad 60 klatek na sekundę w rozdzielczości QHD (2560 x 1440) na karcie GeForce RTX 2080 Ti (DXR poziom ultra)
- osiągnięcie ponad 60 klatek na sekundę rozdzielczości QHD (2560 x 1400) na karcie GeForce RTX 2080 (DXR poziom średni)
- osiągnięcie ponad 60 klatek na sekundę w rozdzielczości FHD (1920 x 1080) na karcie GeForce RTX 2070 (DXR poziom średni)
Pora na sprawdzenie jak rzeczywiście poprawki wpłynęły na wydajność - wykorzystaliśmy dokładnie ten sam etapy gry (jak i oczywiście platformę sprzętową) co w przypadku pierwszych testów DXR.
Wkróce możecie liczyć również na testy na platformie Core i9 9900K + RTX 2080 Ti - chwilowo uległy zatrzymaniu z powodu konieczności reainstalacji Windows na tym komputerze, który to za nic nie chce się zaktualizować do wersji 1809 (sith happens jak powiedziałby Qui-Gon Jinn).
Wydajność DXR PO wprowadzeniu poprawek (aktualna wersja)
Podsumowanie szybkości działania gry na powyższym materiale wideo:
1920 x 1080, ultra (DirectX 12)
- bez DXR - średnio 100-130 klatek na sekundę
- DXR low - średnio 60-80 klatek na sekundę
- DXR ultra - średnio 50-70 klatek na sekundę
2560 x 1440, ultra (DirectX 12)
- bez DXR - średnio 80-100 klatek na sekundę
- DXR low - średnio 50-60 klatek na sekundę
- DXR ultra - średnio 40-50 klatek na sekundę
NVIDIA dotrzymała słowa i faktycznie widać olbrzymią poprawę sytuacji przy użyciu DXR. Oczywiście wciąż należy się liczyć z dużym spadkiem wydajności, ale jest on teraz "zaledwie" dwukrotny, a nie trzykrotny jak w przypadku pierwszej implementacji. Jeśli chcecie zobaczyć i posłuchać co o poprawkach mają do powiedzenia sami deweloperzy, to zapraszamy do poniższego materiału wideo.
Korzystając z okazji, że w platformie testowej znajdował się o procesor o naprawdę sporej ilości rdzeni, sprawdziliśmy również jak silnik Battlefielda radzi sobie z wykorzystaniem CPU. Oczywiście DXR działa z wykorzystaniem RT Cores, które stanowią integralną część GPU. Gwoli wyjaśnienia również trzeba dodać, że DXR jest dostępny wyłącznie w trybie DirectX 12.
Obciążenie CPU - DirectX 12 bez DXR
Obciążenie CPU - DirectX 12 z DXR
Pomiędzy trybami DX11 i DX12 nie ma tak spektakularnych różnic jak choćby w Shadow Of The Tomb Raider, chociaż DX12 wydaje się nieco lepiej korzystać z mocy procesora.
Pierwsze koty za płoty
Doczekaliśmy się więc pierwszej gry z poprawną implementacją DXR. Można oczywiście narzekać, że w ferworze szybkiej walki efekty są mało widoczne, ich włączenie mocno wpływa na wydajność, a konieczność zakupu drogich kart RTX bez których ta technologia nie zadziała, to już w ogóle gwóźdź do trumny. Faktem jest jednak, że ulepszone odbicia naprawdę cieszą oko i że to dopiero pierwszy krok w implementacji śledzenia promieni słonecznych w grach.
Pozostaje nam czekać na kolejnych zawodników z obsługą DXR, jak choćby wspomniany Shadow of The Tomb Raider, czy też nowe Metro, które to miejmy nadzieję wycisną z tej technologii jeszcze więcej. Trzymamy kciuki, abyśmy nie musieli na nie czekać zbyt długo, bo szkoda by rdzenie RT w nowych kartach GeForce leżały i się nudziły...
Może Cię zainteresować:
- Najlepsze gry na 2 osoby na jednym komputerze (lokalna kooperacja i versus)
- Porównanie mobilnych gier do wersji PC
- Polecane karty graficzne do gier. TOP 10
Komentarze
46A to oznacza brak wsparcia dla technologii śledzenia promieni.
W czasach gdy gry powstają przede wszystkim na konsole, to dosyć istotny fakt."
https://antyweb.pl/geforce-rtx-nvidia-ray-tracing-brak-gier/
Konsole jak zwykle 10 lat za PC.
Ray-tracing pasowałby do horroru/gry przygodowej, a nie do strzelanki multiplayer..
np. DLSS skalowanie z niższej do wyższej rozdzielczości.
Rdzenie RT są od ray tracingu tak trudno to pojąć.
Volta ma tensory ale nie ma rdzeni RT.
Spadki są w przedziale 0..1 (np. o 50%, o 75%), natomiast WZROSTY I TYLKO WZROSTY są dwukrotne, trzykrotne. Chyba, że chodzi o spadki poniżej skali - na przykład temperatura sobie może spaść o 40 stopni z dwudziestu - i wtedy mówimy o dwukrotnym spadku (w odniesieniu do zera), jak z 20 zrobi się -20. W FPSach NIE MA WARości ujemnych, stąd nie może być krotnych spadków.
Pozdrawiam
A wystarczy po prostu zrobić sprzęt do grafiki z lepszymi teksturami i złożonością modeli , a RT będzie zbędnym bublem.
Co oni zrobili z tą grą?
Dlatego świat należy do ssaków,odważnych i przących do przodu mężów stanu a nie do tych zatrzymanych w epoce kamienia łupanego kręcącym się w 30 kl/s.
RT to technologia przyszłości i nawet suche majtki na dnie morza nie powstrzymają machiny postępu.Nvidiia podjeła decyzje wypuszczając nową technologię że nadszedł czas udeżyć w czynu stal i wprowadzić w końcu 21 wiek na arenie gier komputerowych.
głosujcie łapką w górę lub w dół dla każdej pozycji, co pozwoli uporządkować ranking
http://twojranking.pl/zaglosuj-na-najlepsza-gre-na-playstation-4/107