Przeprowadziłem porównanie na super wydajnym systemie, ale chciałbym się teraz dowiedzieć, którą z tych kart lepiej wstawić do mojego domowego komputera. Jak duży wpływ na osiągi ma moc CPU i chipsetu, i czy faktycznie karta 9800 GX2 nie straci na osiągach na platformie nie wykorzystującej technologii SLI. Do tego posłuży mi moja standardowa platforma testowa, którą być może znacie już z zestawienia kart graficznych.
- procesor:
Intel Core2 Duo E6400, podkręcony @ 2.6GHz, przez szynę FSB333, - płyta główna: ASUS P5K Deluxe, chipset - intel P35
- pamięci RAM: Kingston 2x1GB DDR2 800 CL4
- dysk twardy:
Seagate 320 GB Barracuda 7200.10 (16MB, Serial ATA II, zapis prostopadły)
W nawiasach za wynikiem zaznaczyłem procentową różnicę w stosunku do wyników na mocnej platformie.
Widać wyraźnie, że nawet składnikowy test HDR w 3DMark06 jest w pewnym stopniu uzależniony od mocy CPU. Na słabszej maszynie 9800 GX2 traci 17%, Radeon 12%.
Przy włączonym AAx4 moc platformy w zasadzie nie ma wpływu na wyniki.
Obiektywne wnioski: 9800 GX2 i 3870X2 oferują porównywalne osiągi
W przypadku testów HL2 ET na słabszej platformie obie karty tracą dość mocno na osiągach - GX2 aż 46%, Radeon niewiele mniej, bo tylko 37%. Ale dalsze wyniki z włączonym AAx4 i Anizo x16 pokazują coś zaskakującego. O ile spadek FPS w przypadku Radeona zatrzymał się na 1%, GeForce 9800 GX2 dalej mocno traci. Nie sądzę aby takie wyniki były spowodowane wyłącznie słabszym CPU, a raczej pozostałymi elementami platformy - chipsetem i sterownikami. Niewykluczone że w przypadku chipsetu Intela coś szwankuje, bo wygląda to tak, jakby karcie brakowało pasma do przesyłania danych. Pozostaje przeprowadzić jeszcze jeden test - słaby CPU+GX2 na płycie z chipsetem nVidii.
Obiektywne wnioski: Radeon 3870X2 jest nieco szybszy
Crysis bardzo ładnie ujawnia nam skalowanie obu kart z mocą CPU. Przy najwyższych ustawieniach VERY HIGH i najwyższej testowanej rozdzielczości 1920x1200, GX2 i X2 uzyskują takie same wyniki na słabej, co na mocnej platformie. Jedynie przy ustawieniach relatywnie najniższych, spadek FPS jest bardziej odczuwalny na GX2.
Obiektywne wnioski: GeForce 9800 GX2 jest wydajniejszy średnio o 40%
Przy okazji chciałbym odnieść się do niektórych komentarzy pod artykułem, krytykujących testowanie kart jedynie w wysokich rozdzielczościach. No wybaczcie moi drodzy :) ale jestem niemal przekonany, że gracz który kupuje kartę graficzną za 1300 lub 2000 zł, dysponuje monitorem 22 lub 24" z rozdzielczością natywną odpowiednio 1680 i 1920, i bynajmniej nie ma zamiaru uruchamiać na takim sprzęcie gier w rozdzielczości 1280x1024. Nie bardzo rozumiem sens testowania tak drogich kart w niskich rozdzielczościach.
World in Conflict to z kolei przykład gry, której wyniki FPS chyba w większym stopniu zależą od pozostałych elementów komputera, aniżeli karty graficznej. Z takimi grami w ciągu najbliższych lat także będziemy mieć do czynienia, więc niezależnie czy się nam to podoba czy nie, takie przypadki też trzeba rozpatrywać.
W trybie bez wygładzania AA obie karty tracą mniej więcej po równo - rzędu 60~70%. Przy włączonym AA Radeon X2 jest nieco bardziej odporny na spadek FPS.
Przy okazji wypada jeszcze wspomnieć, że osiągi X2 w grze WiC odrobinę poprawiły się na najnowszych sterownikach Catalyst 8.3 (głównie w trybie 1920x1200 VH + AAx4" teraz 17 fps, przedtem 13 fps )
Obiektywne wnioski: Bez wygładzania AA karty oferują porównywalne osiągi. Przy włączonym AAx4 GeForce 9800 GX2 jest wydajniejszy średnio o 45%
W Lost Planet zarówno GX2 jak i Radek X2 praktycznie nie odczuły w wynikach FPS zmiany platformy na słabszą. Tu warto wtrącić kilka faktów, które warto mieć na uwadze porównując wyniki obu chipów graficznych: Lost Planet pierwotnie napisany był na konsolę XBOX 360. 360-tka wyposażona jest między innymi w układ graficzny 'Xenos' (R500) wyprodukowany przez ATi. Jeśli ktoś narzeka na logo nVidii 'TWIMTBP' w grach których używamy do testów, powinien mieć też na uwadze, że tu niemal cała gra została zoptymalizowana pod chip jednego producenta.
Obiektywne wnioski: GeForce 9800 GX2 jest wydajniejszy średnio o 37%
PT Boats to test w którym GX2 ponownie bardzo mocno traci na słabszym CPU - aż 65%. Wyniki FPS Radeona X2 spadły jedynie o ~30%, dzięki czemu różnica w osiągach obu kart na tej konkretnej platformie testowej zmniejszyła się do 22%.
Obiektywne wnioski: GeForce 9800 GX2 jest wydajniejszy średnio o 22%
I na koniec kontrowersyjny Call of Juarez. Radeon 3870 X2 niewzruszony po zmianie plaftormy, GX2 traci niewiele, bo tylko ~7%.
I po raz kolejny chciałbym nawiązać do komentarza po pierwszej części artykułu. Zdaje się, że mamy wyjaśnioną zagadkę 'dziwnych' wyników w tym benchmarku. Wersja na której testujemy to 1.0. Na oficjalnej stronie od pewnego czasu dostępna jest nowsza wersja 1.3, w której Radeon X2 faktycznie uzyskuje lepsze wyniki, ale jak się okazuje tylko w trybie 1680x1050.
Tu chciałbym sięgnąć do historii tego benchmarka. Pierwsze demko Call of Juarez które pojawiło się w sieci - być może wielu z Was to pamięta - zostało skrytykowane przez nVidię, jako zoptymalizowane i faworyzujące układy ATi. Faktycznie w pierwszych testach, podczas premiery układu R600 karta ATi osiągała na wersji 1.0 lepsze wyniki (starcie 2900XT vs 8800 GTX).
Dziś na wersji 1.0, w pojedynku GX2 v X2 lepiej wychodzi nVidia, ale benchmark dostępny jest w nowej wersji 1.3, którego wyniki prezentują się jeszcze inaczej. Pytanie gdzie leży złoty środek? Czy nVidia sztucznie tak mocno zoptymalizowała sterowniki, że w benchmarku 1.0 osiąga wyższe wyniki? Czy wersja 1.3 tak samo traktuje obu producentów?