DirectX 12 z pewnością jest krokiem w dobrą stronę. Ale nie każda konfiguracja wykaże zmiany w wydajności.
Hitman jest jednym z tytułów, który w dniu premiery otrzymał obsługę nowych bibliotek DirectX 12, a nie trzeba było długo czekać, by dołączył do niego również Rise Of The Tomb Raider.
W przypadku komputerów z mocnymi procesorami nie należy spodziewać się większych różnic przy wykorzystaniu DirectX 12. Co w przypadku gdy dysponujemy mniej wydajnym procesorem i zintegrowanym układem graficznym?
Wstępnie porównaliśmy działanie Hitmana i Rise Of The Tomb Raider przy użyciu DirectX 12 i DirectX 11 na APU AMD A10-7870K. APU pracowało z referencyjnymi zegarami i pamięcią RAM 2400 MHz.
Hitman - 1366 x 768, niskie
[kl./s.]
DirectX 12 | 39 |
DirectX 11 | 37 |
Hitman - 1920 x 1080, niskie
[kl./s.]
DirectX 11 | 27 |
DirectX 12 | 25 |
W przypadku gdy procesor ma więcej do roboty (niższa rozdzielczość) wersja DirectX 12 wysuwa sie na prowadzenie. Przy wyższej rozdzielczości z kolei lepiej wypada DirectX 11.
Identyczna sytuacja ma miejsce w przypadku Rise Of The Tomb Raider, chociaż tam różnice są naprawdę kosmetyczne.
Rise Of The Tomb Raider – 1366 x 768, niskie
[kl./s.]
DirectX12 | 38,5 |
DirectX 11 | 38,2 |
Rise Of The Tomb Raider – 1920 x 1080, niskie
[kl./s.]
DirectX 11 | 23,6 |
DirectX 12 | 23,4 |
Oczywiście wiele może być jeszcze przed nami - aktualizacje gry, czy sterowników kart graficznych z pewnością poprawią sytuację. Nie należy jednak liczyć na to, że DirectX 12 w cudowny sposób przyśpieszy nam rozgrywkę na wszystkich konfiguracjach - chociaż wypadałoby, by nowe API działało przynajmniej tak szybko jak stare ;-). Najlepszych efektów należy spodziewać się przy połączeniu słaby procesor + mocna karta graficzna.
Źródło: informacja własna
Komentarze
38Ale fakt, dopasowali badziewie do badziewia - świetnie wpasowuje się pod W10. W10+DX12 - tandem z którego nigdy nie skorzystam.
Pisałem kilka razy już - obecne gpu nie sa optymalizowane pod DX12 tylko pod DX11 i tu wzrostu wydajności nie będzie takiego jakiego można by się spodziewać.
Co ciekawe obsluga ACE która miała dac ten fenomenalny wzrost to kropla w morzu przy całym narzucie jaki pozostał.
Podobno na slabych procesorach DX12 mial byc lepszy od DX11 a tu psikus... :D
Nie ukrywajmy. To apu jest słabe w każdym calu. Proc słaby, grafika słaba, więc JAKIKOLWIEK wzrost dobrze wróży. Przypuszczam, że gdyby przetestować to na AMD FX + jakiś mocny Radek, to efekt byłby ciekawy.
Inna sprawa, mogę się mylić ;)
kiedy wy się wreszcie nauczycie?
Po drugie brak wiedzy. Niższa rozdzielczość wcale nie podnosi tak drastycznie narzutu CPU (DX11vsDX12)...
... podnoszą inne rzeczy (drastycznie).
Dlatego różnica jest tak mała. Po prostu autorzy nie mają pojęcia co i jak testować. Wyniki mogą być równie dobrze ssane z palca.
"Chciałbym Windows 10 i DirectX 12 w minimalnych konfiguracjach dla naszych gier napędzanych przez Frostbite już w okresie świątecznym 2016. Prawdopodobnie może być to uznane za trochę agresywne, ale przyniesie głównie korzyści."
Ciekawe dlaczego Crysis 3 potrafi dobrze się skalować na CPU i pracować na jakże "słabych" procesorach AMD gdzie 8300 walczy z powodzeniem z i5 intela, podczas gdy w innych grach proc AMD dostaje bęcki od i3 i Pentiumów.
Crysis dobrze się skaluje i potrafi przyspieszyć nawet na mocarnych CPU, a nie jak w innych grach gdzie i7 bywa wolniejsze od i5.
Ciekawe, że teraz nagle naszym wybawicielem jest dx12, a nie po prostu dobrze napisana gra. (I nie to żebym teraz wychwalał Crysisa.)
No i wybawicielem, tylko w określonych warunkach. Bo co to za wybawiciel, który daje kopa tylko na "złomowym" CPU.
Jak by umiejętnie obciążyć CPU, to przyrost byłby pewnie widoczny nawet na mocniejszych jednostkach.
Ba! Gry działają wolniej na mocnym sprzęcie, ale nie brak głosów poparcia. What? Zrozumiałe jest, że na mocnym sprzęcie nie zobaczymy kolosalnych różnic, mogłoby by być nawet tyle samo co na dx11, ale żeby było gorzej i jeszcze tego bronić?
DX12, phi!
Ciekawe ile mocy CPU poszło w gwizdek z powodu złej optymalizacji, a ile zostało przywrócone dzięki naszemu nowemu mesjaszowi DX12?
Spartolić wykorzystanie CPU,
wprowadzić cudowne dx12,
profit?
i karuzela kręci się dalej...
AMD potrzebuje lepszych sterowników - to bezsprzecznie - ale potrzebuje też dobrze napisanych gier.
DX12 to na razie zwykła proteza, która jak widać, potrafi przeszkadzać.
Trzeba będzie nam poczekać na gry pisane z myślą o dx12, to może coś się z tego wykluje.
Oby tylko nie było tak, że wydajność na DX11 będzie się zaniżało, tylko po to, by pokazać wyższość dx12.
Bo taka chyba jest tendencja, wymagania co do sprzętu rosną, a gry wcale jakoś zauważalnie nie pięknieją.
Tak jakby chciano się pochwalić mega mocą dx12...