miniRecenzja wyróżniona! |
Na benchmark.pl od kilku lat obserwuję pewną walkę pomiędzy zwolennikami dwóch różnych tez dotyczących powiązania procesora z kartą graficzną. Jeden z obozów upiera się przy twierdzeniu, że do wydajnej karty graficznej bez żadnych wątpliwości potrzeba wydajnego procesora. Zakup szybkiej karty do starego CPU nie ma sensu, ponieważ karta będzie „ograniczana” przez wąskie gardło, jaki stanowi CPU.
Drugi obóz reprezentuje zgoła różną teorię: To czy procesor będzie ograniczał kartę graficzną w grach zależy głównie od wymagań danej gry. Jeżeli potrzebuje ona wydajnego, wielo-rdzeniowego procesora taki też wypadałoby mieć. Jeżeli dany tytuł głównie wymaga potężnej karty nie wymagając specjalnie dużo od procesora to nie ma potrzeby inwestowania w procesory kosztujące krocie.
Jak jest więc w praktyce? Czy występuje coś takiego jak „ograniczenie” karty graficznej przez procesor? Czy wymiana karty graficznej na nowy, szybszy model ma sens, jeżeli nadal pozostajemy przy starym i raczej już wolniejszym procesorze? Postaram się tą recenzją odpowiedzieć na to pytanie.
W ostatnim czasie maiłem bardzo dużo szczęścia. Dzięki redakcji Benchmark.pl w moje ręce trafiła najszybsza jednoprocesorowa karta graficzna na świecie. GTX580 Lightning Extreme Edition. Niestety okazało się, że przyszła uszkodzona. Praktycznie nie chciała wyświetlać obrazu powodując wręcz restarty systemu. Kartę musiałem wysłać na gwarancję. Przyszła prawie dwa miesiące później, ale już nie w wersji Extreme Edition. Różnica polegała tylko i wyłącznie na ilości zainstalowanej pamięci; 1.5GB zamiast 3GB oraz kolorze wentylatorów. W między czasie swoją premierę miał AMD Radeon HD 7970 przejmując pałeczkę wśród najszybszych kart graficznych z jednym GPU.
Nie jestem posiadaczem najszybszego komputera na świecie. Serce mojej maszyny napędza dokładnie 4 letni procesor C2D E8200. Seria E8xxx charakteryzowała się ogromnym potencjałem na overclocking. Mnie trafiła się przeciętna sztuka, którą podkręcić da się maksymalnie do 3.9GHz, przy czym stabilne taktowanie przy względnie niskim napięciu wynosi „zaledwie” 3.7GHz. Tak wykręcony procesor był można powiedzieć przyzwoitym minimum do współpracy z wydajną kartą, jaką jest Radeon HD5850. Większość gier chodziła bardzo dobrze jednak pojawiły się tytuły gdzie płynność animacji była wyjątkowo zła. Czy na taki stan rzeczy ma wpływ zbyt wolny procesor? Czy zmiana karty graficznej poprawi płynność gier?
Procesor: Core 2 Duo E8200 2.66GHz @ 3,7GHz
Płyta główna: Gigabyte X48 DS4
Pamięć RAM: Kington 4GB 1066MHz
Dyski twarde: OCZ Vertex2 60GB +2xHDD
Zasilacz: Enermax Platmax 750W
System operacyjny: Microsoft Windows Vista 64bit
Sterowniki:
nVidia: 285.62
Radeon Catalyst: 12.1
Jako że GTX580 dodarł do mnie prosto z Holandii fabrycznie nowy i nieotwierany prezentuję Wam popularnie zwany unboxing karty mojego autorstwa.
GTX580 charakteryzuje się naprawdę dużymi gabarytami. Od kilku dobrych lat podczas wymiany karty graficznej na wydajniejszą liczyć się trzeba z faktem, że karta będzie także większa. Przynajmniej w odniesieniu do segmentu hi-end. Długość Lightninga to aż 297 mm. Do mojego Cooler Mastera 690 II mieści się karta o maksymalnej długości 304 mm. Czyli w zapasie pozostaje teoretycznie tylko 7 mm przestrzeni. Takie rozmiary sprawiają, że by kartę umieścić w slocie trzeba ją włożyć do obudowy pod kątem a dopiero później obrócić do pozycji poziomej.
GTX 580 Lightning to karta fabrycznie podkręcona. Standardowe zegary (775MHz dla rdzenia oraz 1002MHz dla pamięci) zostały podniesione do odpowiednio 832MHz oraz 1050MHz. Taki zastrzyk mocy zapewne odbiłby się pozytywnie na wynikach testów, ja jednak postanowiłem przywrócić karcie zegary do wartości charakterystycznych dla zwykłego GTXa. Na wykresach wydajności znajdować się będą trzy słupki. Pierwszy dla Standardowego HD 5850 (GPU 725MHz, Pamięci 1000MHz) Wersja podkręcona tej karty (950MHz, 1100MHz) oraz wersja standardowa GTX580.
Prócz benchmarków gdzie ustawienia graficzne są zdefiniowane przez program, w każdej grze ustawiłem najwyższą możliwą jakość obrazu. Zawsze włączony był Anti Aliasing x4 oraz Filtrowanie Anizotropowe x16. Dodatkowo zarówno w sterownikach nVidii jak i w Catalystach włączone były wszystkie „polepszacze” obrazu. Testy przeprowadzane były w dwóch różnych rozdzielczościach: 1920x1080 oraz 1366x768. Pierwszy powinien uwidocznić różnice między wydajnością kart, drugi powinien je „spłaszczyć” poprzez większy wpływ procesora na płynność w danej grze.
Testy rozpocząłem od syntetyków. Na pierwszy ogień poszedł leciwy już 3D Mark Vantage. Benchmark ten nie obsługuje najnowszych efektów graficznych takich jak teselacja. Teoretycznie zdecydowanie wydajniejszy GTX580 nie ma tu zbyt dużego pola do popisu. Wyniki na wykresie to ilość pkt. dla GPU score:
Przewaga GTX580 nad Radeonem to zaledwie 5000 pkt. Jeszcze gorzej wygląda wynik porównania podkręconego Radeona do GTXa, różnica zmniejsza się do zaledwie trzech tysięcy punktów. Jeżeli ktoś jest fanem suchych liczb to może się zawieść na takich wynikach. Różnica w wydajności między niepodkręconymi kartami wynosi 37%. To z jednej strony dużo, jednak z drugiej mało biorąc pod uwagę ceny obu kart. Radeon HD5850 około 600zł, GTX580 około 2000zł.
Następnym benchmarkiem jest obecnie najbardziej zaawansowany program testowy firmy Futuremark. 3D Mark11 bo o nim mowa. Wprawdzie nie prezentuje oszałamiającej jakości grafiki, ale potrafi obciążyć najmocniejszą nawet kartę graficzną. Ponownie na wykresie zamieszczam wyniki dotyczące tylko karty graficznej.
Widać nareszcie, że GTX580 rozwija skrzydła. Masa teselatorów i jednostek wykonawczych nareszcie mają pełne ręce roboty. Różnica między kartami jest ogromna, wynosi ponad 75%. To widać w płynności wyświetlanego obrazu (poza żałosnym testem CPU) Nadal czwarty test nie jest całkowicie płynny, ale da się go już obejrzeć. Zwrócić uwagę trzeba na całkiem spory zastrzyk mocy, jaki osiągnął Radeon po OC. Blisko tysiąc pkt. więcej i to całkowicie za darmo.
Crysis 2 to dosyć nowa gra typu FPS. Nie da się ukryć, że na chwilę obecną jedna z najładniejszych dostępnych na komputery osobiste. Gra jednak w podstawce nie robi takiego wrażenia jak pierwsza część Crysisa. Dopiero dodanie ogromnej łatki zawierającej tekstury wysokiej rozdzielczości oraz uruchomienie trybu DX11 sprawiają, że gra potrafi zachwycić widokami. Tytuł ten przeszedłem na Radeonie bez większych problemów w rozdzielczości Full HD. Jednak tylko w trybie DX9. Włączenie efektów DX11 powodowało drastyczny spadek ilości klatek generowanych na sekundę. Dodatkowo pojawiały się mikro przycięcia, które nie tylko denerwowały, ale utrudniały rozgrywkę.
Poniżej zamieszczam filmik z miejsca gdzie dokonałem pomiaru ilości FPS. Za każdym razem starałem się przejść ten moment tak samo.
Test był powtarzany dwukrotnie a wyniki uśrednione.
Jak widać w rozdzielczości trochę wyższej niż HD Ready Różnica między kartami się pojawia jednak raczej nie jest zbyt duża. Siedem klatek więcej to nadal odrobinę za mało by mówić o całkowicie płynnej rozgrywce. Zdumiewa jednak właściwie znikoma różnica w płynności między podkręconym Radeonem a wersją na zegarach standardowych. Co jest tego przyczyną trudno określić. Jednak gra była raczej trudna i mało komfortowa.
Ten sam moment w rozdzielczości Full HD okazał się zabójczy dla wydajnego przecież Radeona HD5850. Nawet po mocnym podkręceniu karta osiągała średnio zaledwie 19.5 FPS. Mikro przycięcia stały się jeszcze bardziej uciążliwe a szybka akcja stała się… za szybka. GTX580 wyświetla obraz z ilością klatek o 63% większą jednak tylko na granicy płynności. Widać w tym miejscu duża liczba wrogów musi bardzo obciążać procesor, który nie jest w stanie dostarczyć odpowiedniej ilości danych na czas takiemu potworowi, jakim jest GTX580. Zaznaczę jednak, że w zdecydowanej większości miejsc średni FPS wynosił około 40-45 klatek na sekundę i to w rozdzielczości Full HD oraz DX11.
Przy okazji testów w Crysis 2 postanowiłem sprawdzić pewien od dawna interesujący mnie szczegół. Ile pamięci graficznej potrzebuje Crysis 2 po uruchomieniu go z teksturami wysokiej rozdzielczości i w najwyższym możliwym trybie graficznym. Jako że sterowniki nVidii umożliwiają monitorowanie tego parametru nie omieszkałem tego sprawdzić. Wynik był zdumiewający
Gra średnio zajmuje ponad 1400MB pamięci graficznej. Odnotowałem podczas gry wartości sięgające 1498MB. Myślałem, że 1.5GB pamięci na karcie graficznej to dużo, że to, iż zamieniono mi Lightninga z wersji 3GB na wersję z pojemnością o połowę mniejszą nie będzie miało znaczenia. Jak się okazuje już teraz gry bez problemu potrafią załadować całą dostępną pamięć nawet w najszybszych kartach. Stąd właśnie mogą brać się mikro przycięcia na HD5850. Być może tekstury, które nie mieszczą się w 1GB pamięci zrzucane są do pamięci RAM komputera skąd muszą być w razie potrzeby dostarczone z powrotem do karty. Jako że w C2D kontroler pamięci nie jest zawarty w CPU a w układzie znajdującej się na płycie głównej gra dostaje jedno extra opóźnienie i FPS drastycznie spada. Myślałem, że GTX580 to karta z potencjałem na przyszłość. Jak widać nie w wersji z 1.5GB pamięci.
Battlefield 3 jest to gra teoretycznie najbardziej zaawansowana technologicznie. Świadczyć może o tym choćby fakt, że obsługiwany jest tylko tryb DX11. Kampania Single Player w tej grze ma bardzo nierówny poziom graficzny. Czasami widoki zapierają dech w piersiach, czasami wręcz zaskakują swoją przeciętnością. Przyznać trzeba jednak, że gra jest dobrze zoptymalizowana i pomimo dosyć szybkiej akcji nie ma większych problemów z płynnością nawet używając ponad dwu letniego HD 5850.
Testy przeprowadziłem w miejscu z filmiku powyżej. Zawsze dokładnie tak samo. Każdy test był powtórzony dwukrotnie.
W rozdzielczości 1366x768 gra jest całkowicie płynna nie tylko na GTX580, ale także na nawet niepodkręconym Radeonie. Różnice między kartami są naprawdę niewielkie, wręcz pomijalne, jeśli porównać GTXa z podkręconym Radeonem. Czyżby w tym miejscu ponownie ograniczeniem był procesor? Niewykluczone. Z analizy użycia procesora w tle widać, że oba rdzenie są cały czas obciążone w 99%.
Battlefield 3 ma to do siebie, że konieczne jest stosowanie w nim trybu wygładzania krawędzi. Ta gra bardzo dużo traci na jakości gdy wyłączymy AA. Osobiście oceniając jakość grafiki doszedłem do wniosku, że wolę grać w rozdzielczości 1366x768 z 4xAA niż bez wygładzania krawędzi a w Full HD. Grając na GTX580 nareszcie mogę sobie pozwolić zarówno na wysoką rozdzielczość jak i na przyzwoity tryb wygładzania krawędzi. Tutaj różnice między kartami zaczynają się powiększać. Najszybsze jednoprocesorowe dziecko nVidii jest tu szybsze prawie o 60% od Radeona. Nawet wysokie OC karty AMD niewiele tu daje, gra działa dosłownie na granicy płynności. Jest możliwa, ale zdecydowanie mniej komfortowa.
Lost Planet 2 to trzecio osobowa strzelanina w świecie SF. Mnie nie przypadła do gustu, ale jako że posiada benchmark polegający na prawdziwej rozgrywce okazała się bardzo dobrym programem do badania wydajności kart. Grafika nie rzuca na kolana, choć dzięki bardzo płynnej animacji sprawia wrażenie dynamicznej i kolorowej. Wyniki to średni FPS z trzech różnych lokacji.
O dziwo gra nawet w rozdzielczości 1366x768 jest dosyć dużym wyzwaniem dla Radeona. Wprawdzie test odbywał się w środowisku DX11 (co niespecjalnie widać) to zdziwił mnie niski FPS na karcie AMD. Jest to pierwsza gra gdzie różnica między kartami jest po prostu kolosalna. 123% więcej klatek na sekundę po odpaleniu benhmarka na GTX580, robi wrażenie. Być może wpływ na wynik ma fakt, że gra jest opatrzona logo nVidi „it’s meant to be played”. Trudno powiedzieć, jednak przewaga GTXa jest większa niż powinna oferować jego teoretyczna moc obliczeniowa w porównaniu do karty AMD.
Drugi test w wyższej rozdzielczości upewnia mnie w przekonaniu że Lost Planet 2 bardzo dobrze „dogaduje” się z GTXem. Ponownie mamy do czynienia z ogromną przewagą w ilości FPS. Mamy tu do czynienia z jeszcze większą przewagą, bo sięgającą aż 129%. Na GTX580 po zmianie rozdzielczości mamy średni FPS wystarczający nawet dla najbardziej wymagających graczy. Radeon zaczyna się dławić oferując średnio niewiele powyżej minimalnych 25 klatek na sekundę. Mocne OC zdecydowanie poprawia komfort gry, co jednak nadal nie umywa się do możliwości GTXa. To pierwszy test gdzie wydawałoby się, że procesor nie ma specjalnego wpływu na wydajność karty. Szybsza karta równa się więcej FPS. Czy tak będzie w kolejnej grze?
GTA IV to już kilkuletnia pozycja na rynku gier. Nigdy nie posiadała oszałamiającej grafiki. Obecnie jest wręcz w pewnym sensie przestarzała technologicznie, co jednak nie przeszkadza przy czerpaniu przyjemności z gry w prawdziwym sandboxie. Gra zasłynęła z wręcz koszmarnej optymalizacji na komputery osobiste. Z opinii wielu użytkowników można wywnioskować, że gra wymaga do poprawnego działania cztero-rdzeniowego procesora. Posiadając stare C2D po zmianie karty z 8800GT na HD5850 odczułem minimalny wzrost płynności. Najbardziej irytował nie tyle średni FPS co ogromne jego spadki. Często do wartości jednocyfrowej. W grze występują lokacje gdzie FPS jest wyjątkowo niski. W jednej z takich lokacji przeprowadziłem test płynności. Polegał on na wyjściu z mieszkania, wejściu na motor, dzikiej jeździe przez miasto i walce (przy pomocy podręcznego RPG)
Najwyraźniej w tej grze pierwsze skrzypce gra procesor. Jak inaczej wytłumaczyć tak żałosny wynik przyzwoitego przecież HD5850 w grze, która wygląda dość powiedzieć średnio? Marne 19 klatek na sekundę oraz praktycznie zerowy wzrost wydajności po OC. Przyznam się, że po zainstalowaniu GTX580 bałem się, iż FPS jeszcze bardziej spadnie. Ostatnio modne twierdzenie, że sterowniki nVidii znacznie gorzej się sprawują na procesorze dwu-rdzeniowym niż sterowniki AMD. Jak widać nie w tym wypadku. Widać, że zmiana karty jest warta zachodu, chociaż… Jak to wygląda? Gra sprzed jakiś 4 lat, brzydkawa, bez fizyki, właściwie bez sztucznej inteligencji i innych bajerów nie potrafi osiągnąć marnych 30FPS na karcie z 2011 roku kosztującej obecnie około 2000zł? Idealny przykład tego, że procesor w niektórych tytułach musi mieć pewną moc obliczeniową/ilość rdzeni.
Zmiana rozdzielczości nie wpływa na wydajność GTXa. Dziwne zjawisko, bo patrząc na to co GTA IV robi z moim Radeonem jest wręcz smutne. Pokaz slajdów. Człowiek patrzy i nie wierzy, że coś tak średniego graficznie może mieć tak ogromne problemy z animacją na karcie pokroju HD5850. GTX580 nie ma czym się pochwalić, ale widać karta posiada coś co sprawia że utrzymuje w miarę przyzwoitą wydajność w grze.
Ostatnim moim testem wydajności jest gra, która sprawiła mi najwięcej problemów podczas testów, a jednocześnie same testy są najbardziej wiarygodne. Bettlefield 3 po raz kolejny gości wśród moich testów. Tym razem jednak mowa o rozgrywce wieloosobowej. Internet pęka w szwach od rad, iż do tej gry najbardziej nadają się procesory wielo rdzeniowe, przyzwoite ilości RAMu oraz szybkie karty graficzne. Niewątpliwie rozmach bitew wieloosobowych gdzie uczestniczą samoloty, śmigłowce, czołgi, samochody, wozy pancerne etc. Jest wymagającym środowiskiem. Walka przeważnie wre gdziekolwiek nie spojrzeć.
Testy przeprowadziłem na jednaj z najbardziej wymagających map. Granica kaspijska, Conquest large na 64 graczy. Tylu walczących we wszystkim, co jest dostępne w grze (prócz łodzi) będzie idealnym testem całej platformy oraz wpływu zmiany GPU na ogólną płynność gry. Battlefield 3 ma jednak to do siebie, że walka w trybie wieloosobowym jest bardzo zróżnicowana. Jeden pusty test niekoniecznie dałby prawdziwy obraz o wydajności gry. Dlatego test przeprowadziłem trzykrotnie dla każdej karty. Dokonałem pomiaru podczas walki powietrznej w myśliwcu, szalonej jazdy samochodem oraz zwykłej walki piechotą. Osobne wyniki uśredniłem otrzymując średnią płynność gry w każdej sytuacji.
Moje zmagania, jakie służyły mi do testu zamieszczam na filmiku poniżej.
Testy przeprowadziłem już tylko w jednej rozdzielczości: Full HD. Na Radeonie w Multi grałem zawsze w niższej rozdzielczości 1366x768. Dlaczego? Ta gra ma jeden bardzo denerwujący zwyczaj. W wyższej rozdzielczości raz na jakiś czas potrafi nie wczytać jakiejś tekstury. Zwykle jest ona niewielka, jest to jakaś skrzynka, koszyk, plakat. Zwykle po sekundzie jest uzupełniana jednak już na mich oczach, co trochę psuje ogólny efekt. Zwykle tekstury wczytywane są na czas jednak czasami czuć, że gra dociąga je z RAMu w komputerze, bo zdarzają się ścinki nawet ponad sekundowe. Zmniejszenie rozdzielczości eliminuje te problemy w 80%.
O ile BF 3 w multi działał względnie dobrze (pomijając pewne opisane wyżej problemy) to FPS na poziomie 27 klatek w tak dynamicznym tytule jest ilością niewystarczającą do komfortowej gry. Mocne OC Radeona daje extra niecałych 6 klatek, co da się odczuć. Mimo wszystko nadal brakuje tu płynności. Zainstalowanie w komputerze GTX580 sprawia, że średni FPS podnosi się o 10 klatek na sekundę. Chyba każdy przyzna, że różnica między 28 klatkami a 38 jest dużą różnicą. To aż 37% różnicy. Tu jednak ponownie ograniczeniem musi być przestarzały procesor. Nic dziwnego, historia użycia mocy CPU daje jasno do zrozumienia, co tu jest wąskim gardłem. Oba rdzenie są maksymalnie obciążone niezależnie czy ustawiłem je na 3.6GHz, 3.7GHz czy 3.8GHz. Potrzeba tu trzech czy nawet czterech szybkich rdzeni i nawet najnowszy HD7970 niewiele by pomógł.
Przy okazji testu multi sprawdziłem podobnie jak w Crysis 2 ile zajmują tekstury w pamięci karty graficznej. Screen jaki zrobiłem podczas gry w Metrze mówi sam za siebie:
Gra zdecydowanie w Full HD nie zadowoli się 1GB pamięci na karcie. Zużycie pamięci sięgnęło 1.3GB. To bardzo dużo. Średnio podczas gry obserwuję, że zajęte jest około 1240MB, ale często znacznie więcej. Jeżeli ktoś posiada kartę z 1GB pamięci lub co gorsza z 756MB od razu może sobie odpuścić rozdzielczość Full HD lub maksymalne ustawienia graficzne.
Po raz kolejny okazało się, że 1.5GB pamięci na karcie wcale nie jest przyszłościowe. Jest po prostu potrzebne już teraz a większa ilość zdecydowanie się nie zmarnuje. Nic dziwnego, że Radeony z Serii HD 69xx mają zamontowane 2GB pamięci, a najnowsze 79xx 3GB. Teraz już wiem, że nie warto polecać modeli z 1GB. To bardzo ograniczyłoby wydajność karty w wyższych trybach graficznych.
PODSUMOWANIE WYNIKÓW:
Na koniec zamieszczam dwa niewielkie wykresy przedstawiające jak wyglądają różnice między kartami w odniesieniu do wszystkich gier z recenzji. Wyniki dotyczą obu rozdzielczości: 1920x1080 oraz 1366x768
Nowa karta to nie tylko wydajność. Wiele do powiedzenia ma tu komfort użytkowania karty. Nie problem kupić najszybszą kartę graficzną na świecie lub 3 a może nawet 4 GPU i spiąć je razem. Duże znaczenie ma energochłonność karty, poziom wytwarzanego hałasu oraz wytwarzanego ciepła, które trzeba rozproszyć.
Pierwszego nie mogłem sprawdzić, nie ma watomierza . Według tych, którzy go posiadają i nie omieszkali sprawdzić ile potrzebuje prądu dana karta, nie mam się z czego cieszyć. Maksymalny pobór mocy przez kartę wzrósł ze 125W (Radeon) do około 225W (Ge Force). 100W to duża różnica.
Dodatkowe 100W w postaci ciepła, jakie rozprasza zmontowany na GTX580 układ chłodzenia, powinno solidnie podgrzać wnętrze komputera oraz poszczególne podzespoły. Tak się jednak nie stało. Być może za sprawą tego, że zamontowałem w obudowie całą masę wentylatorów (rozmieszczenie w profilu) całe ciepło zostaje bardzo szybko usunięte poza obudowę. Odczyty z diody termicznej zamontowanej w każdym newralgicznym elemencie komputera (chipset, ram, dysk twardy, ogólna temperatura obudowy) nie wzrosły podczas obciążenia nawet o 1 stopnień Celsjusza. Widać, że po zamontowaniu odpowiedniego chłodzenia w komputerze nie trzeba się martwić ilością emitowanego ciepła przez kartę.
Jak się ma zatem sprawa głośności GTX580? Cóż, jest gorzej niż było. Radeon HD5850 automatycznie ustawiał wentylator na 21% gdy karta była w spoczynku. Sam zwiększałem tą wartość do 35% gdyż karta nadal pozostawała prawie bezgłośna a temperatura spadała o kilka stopni. Pod obciążeniem nawet po mocnym OC wystarczyło 48% prędkości wentylatora by karta nieprzekraczana 63’C. GTX580jest trochę inaczej zaprojektowany. Dwa wentylatory pracują z minimalną prędkością na poziomie 40%. Są odrobinę bardziej słyszalne podczas spoczynku karty. Różnica, choć niewielka to trochę szkoda, że występuje. Gorzej robi się pod obciążeniem. Na opakowaniu Lightninga jest adnotacja, że karta rozgrzewa się o 21’C mniej niż referencyjny GTX580, że zamiast 81’C tu maksymalna temperatura wynosi 60’C. To prawda. Ani razu nie zanotowałem wyższej temperatury. Jednak ktoś tak ustawił kartę żeby nigdy wyższej temperatury nie osiągnęła w bardzo sprytny sposób. Odpowiedzialny za chłodzenie Twin Frozr III koryguje temperaturę podnosząc prędkość obrotową wentylatorów. Już po 10 sekundach gry wentylatory wirowały z szybkością 55% a rozpędzają się czasami powyżej 60%. Karta wyraźnie szumi w obudowie. Radeon był zagłuszany przez 7 wentylatorów w obudowie ustawionych na 1200rpm. Karta nVidii wybija się wyraźnie z tego szumu. Nocne sesje z BF3 stają się uciążliwe dla współlokatorów. Źle nie jest, ale przyzwyczajony do względnej ciszy odczuwam pewien dyskomfort.
Nie podaję głośności karty w decybelach, piszę o niej subiektywnie, ale dlaczego nie zaprezentować jej tak byście i Wy mieli okazję obu kart posłuchać? Zamontowałem do kamery mikrofon typu kardioid. Jest to typ kierunkowy. „Wycelowałem” go prosto w kartę graficzną tak by zebrał maksimum dźwięku pochodzącego z wentylatorów a minimum otoczenia. Poniżej zamieszczam zdjęcie z tego testu:
Nagrałem film z obu kart w 4 szybkościach pracy wentylatorów. Auto, 50%, 75% oraz 100%. Różnice możecie ocenić sami po obejrzeniu (i odsłuchaniu) poniższego filmu.
Użyłem bardzo czułego mikrofonu. W rzeczywistości nie jest aż tak źle jednak pewne różnice da się wyłapać.
Przy wartościach Auto obie karty wypadają podobnie. Przy 50% wydaje się, że Radeon jest głośniejszy. Przypomnę, że na tej karcie wentylator nigdy nie przyśpieszył do 50%. Wyższe prędkości wentylatorów także są podobne. Obie karty powyżej 75% szybkości wentylatora są niczym jak suszarki całkowicie nieakceptowane pod względem generowanego hałasu. Dla mnie to starcie wygrywa zdecydowanie Radeon.
Przyszedł nareszcie czas na podsumowanie próbę odpowiedzi z tytułu tej mini-recenzji. Czy warto zmienić kartę graficzną na znacznie wydajniejszą bez zmiany starej platformy? Myślę, że tak, jednak nie zawsze wiązać się to będzie z dużym przyrostem wydajności. W każdym przeprowadzonym teście, w obu rozdzielczościach GTX580 zapewniał lepszą wydajność. Czasami różnica wynosiła zaledwie kilkanaście procent, czasami oferowała ponad dwukrotnie większą wydajność. Są tytuły, które wymagają bardzo szybkiego procesora i niezależnie od wydajności karty będą działać bardzo opornie. Jednak, gdy ktoś zapyta czy do C2D E4400 lub AMD X2 5600 warto zmienić kartę z Radeona HD3850 na HD5830 lub GTX460 odpowiem, że warto. Może nie wykorzysta całego potencjału karty, ale na pewno odczuje zdecydowaną różnicę w wydajności nowych gier.
Trzeba tylko wziąć pod uwagę większy apetyt na prąd, zwiększoną ilość odprowadzanego ciepła i wiążący się z tym hałas wytwarzany przez układ chłodzenia. Oczywiści zawsze pierwsze skrzypce grać będą motywy ekonomiczne. W powyższej recenzji chyba też trochę pomniejszyłem rzekomy problem ze sterownikami nVidii. Nie odczułem najmniejszego spadku płynności związanego z dodatkowym narzutem na procesor. Jeżeli takie coś miało miejsce to zostało zniwelowane przez zdecydowanie ogromną moc nowego GTXa.
PLUSY WYMIANY KARTY:
+ Zdecydowanie wyższa wydajność w każdej grze.
+ Pewien zapas mocy na przyszłość (jednak nie pamięci graficznej)
MINUSY WYMIANY KARTY:
- Znacznie zwiększony apetyt na prąd.
- Dosyć uciążliwy system chłodzenia w "stresie"
- Cena karty.
- Czasami niewielka różnica w wydajności za dużą różnicę w cenie.
Niedługo uwolnię całą moc karty graficznej wraz z nową platformą pod Snady Bridge. Do tego czasu musi mi wystarczyć cztero-letni procesor, który trzeba powiedzieć radzi sobie bardzo dzielnie.
Zapraszamy do zamieszczania ciekawych artykułów i zdobywania punktów, które możecie wymienić w sklepie internetowym lub "zmaterializować" w gotówkę :) Liczymy na świetne publikacje i wysoką jakość. | miniRecenzje od A do Z PORADNIK | Zobacz ostatnie MRM minirecenzje miesiąca |
Komentarze
120Szymon, jeśli chcesz kontynuować wątek 'ograniczania' przez procesor to mam sugestię. Po zmianie platformy SB poza testami GTX580 i porównaniem do wyników z C2D przydałby się jeszcze jeden test. Jeśli będziesz miał możliwość w jakikolwiek sposób zdobyć kartę pokroju GTS 450 czy HD5750/70 to przetestuj i ją na nowym procesorze.
Tym sposobem dojdzie do konfrontacji skrajnych konfiguracji:
- mocna karta + słaby procesor
- słaba karta + mocny procesor
Wynik powinien być ciekawy i jednoznacznie pokaże co jest lepszym rozwiązaniem.
Skoro GTX580 + C2D ma 25 klatek w Crysisie, czy prawie 40 w BF3, to jeśli sugerowana 'słabe karta' pomimo bardzo wydajnego procesora miała by mniej to może w końcu ludzie przestali by pisać mądre rady, że kupowanie mocnej karty nawet do względnie starego CPU nie ma sensu.
Co do wpływu procesora na kartę graficzną to podejrzewam, że jednak jest, ale na ile jest on ważny to już inna sprawa. Jeśli chodzi o gry to najważniejsze jest to jak producenci podejdą do architektury gry - przykładowo Dragon Age ma wyraźnie zaznaczoną różnicę między wymaganiami min. a opt. - dwu i cztero-rdzeniowy procesor robi tutaj zapewne sporą różnicę, ale już np. nadchodzący ME 3 nie wymaga procesora czterordzeniowego, więc najwięcej dla komfortu grania powinna mieć do "powiedzenia" karta graf. Podobnie jest z FIFĄ 12 - teoretycznie z X1950gt powinienem mieć problemy, ale jako że mój obsługuje SM 3.0, nie mam problemu z graniem, natomiast w Virtua Tenis sobie nie pograłem, bo nie było sensu (C2D e6750, sapphire x1950gt 512MB 256bit).
Więc czy warto inwestować w kartę graficzną - tak, ale nie najmocniejszą na rynku. Zawsze może się przydać w przyszłości obniżając koszty zakupu nowego pieca. A lepszy procek dla danej mocnej karty z pewnością nie zaszkodzi.
Ja osobiście uważam, że powinno się kupować najmocniejsze karty, aby małą dopłatą do średniaka mieć spokój na dłużej. Miał byś inne podejście gdyby nie zawód jaki na pewno cię spotkał w związku z kartą.
Masz szczęście, że 5850 nie skończył żywota na wideo z USB ;)
A teraz trochę żalu: Ja rozumiem, że MSI jest sponsorem ale to chyba jakiś żart te 2 miechy. Na dodatek wróciła nie ta karta. Rozumiem, że to "za darmo" ale dla mnie sprawą honoru było by wymienić kartę na taką samą i uwinąć się szybciej. Widać komuś tu zabrakło jaj na męską postawę...
2. jak ktos ma gtx 580 to raczej juz ma 4 rdzeniowy monitor po
3. Kolega mi mowil po co kupujesz tego gtx skoro i tak gry tego nie wykorzystaja, a jednak wykorzystuja. A co bedzie jak wyjdzie GTA 5 po
4. procek na testach troche go zamulał bo sam mam gtx EVGA 580 procka I5-750 na 4GHZ 8 Gram i minitor 32 cale to w Bettlefield 3 wszystko na wysokie tylko tekstury i efekty na ultra mam srednio 78/80 klatek wiec procesor duzo daje
5 Crysis 2 no na tym to juz troche nie wyrabial nie pamietam jakie mialem ustawienie ale na wysokich (nie na ultra) na mialem te 60 ale nie bylo tak stabilne jak lubie czyli 60+. Tak ze od ponad roku uwazam ze karty 1 gigowe to lipai niestety jak wyjdzie GTA 5 to nawet gtx 580 z1.5 g nie pomoze zeby grac na fulla
Ale za tyle pracy żałosne 5 pkt? Co tak skąpo redakcjo?
Tosz to naprawdę potężna recka na ciekawy temat.
Wystarczy się zastanowić, czy twoje obecna karta odpala wszystkie interesujące cię gry w odpowiedniej rozdzielczości i ze wszystkimi wodotryskami bez zacięć. Jeżeli tak jest to zmiana ci się nie opłaca.
Zgadzam sie jednak z przedmowcami, ze test nie do konca odpowiada na teze zawarta w temacie.
W zasadzie teza powinna byc sformulowana nieco inaczej: "Czy raczej podstarzaly juz zestaw nalezy "upgradowac" o komponenty z najwyzszej polki pozostawiajac reszte bez zmian - na przykladzie 2 kart graficznych". Na taka teze test daje odpowiedz pozytywna z malym "ale". Jesli taki komponent bedzie w niedalekiej przyszlosci wzbogacony o kolejne "nowe" komponenty. Nowa karta graficzna niewatpliwie sprawila, ze Twoja konfiguracja jest "mocniejsza", ale, jak sam piszesz procesor masz obciazony na 100%, wiec GTX 580 jest zdecydowanie za mocny. Pytanie czy na HD5850 obciazenie procesora rowniez wynosi 100%; jesli tak to juz Radeon jest zbyt mocna karta do tego procesora.
Np. FPS w World of Tanks osiągają 125 i ogólnie lepiej mi się gra na C2D E8500 @ 3.8GHz + Radek 4850 niż na C2Q QX9650 @ 3.6GHz + Radek 6870 na którym FPS ledwo dobija do 80 a w trakcie rozgrywki odczuwa się "ociężałość", o tym że drugi zestaw jest cieplejszy nie wspominam.
SWTOR tu z goła inaczej, 4850 niestety nie tylko w tej grze ma problemy z cieniami i trzeba je wyłączyć bo dobijają strasznie maszynę, ale po wyłączeniu cieni na obu zestawach gra wygląda i działa podobnie. Przynajmniej tak odczuwam ze względu na fakt iż jest to zupełnie inna rozgrywka, z naciskiem na pilnowanie timingów a nie na szybkie i dynamiczne akcje wymagające bardzo wysokiej płynności.
Także odwieczne pytanie składacza komputerów jest nadal aktualne... co będziemy robić na kompie, od zarania dziejów utarło się że do pracy na dużych rastrach dużo pamięci a na wektorach mocny procek.
Obecnie to samo można napisać o grach jedne zadowolą się 2 szybkimi rdzeniami a inne 20 wolnymi czasem na AMD pójdzie lepiej niż na Intelu, z grafiką to samo, czasem lepszy teoretycznie słabszy radek który w OpenGL bije na głowę mocniejszą nV a czasem słabsza nV wychodzi dużo lepiej od mocniejszego radka dzięki optymalizacji jaka jest robiona pod karty nV...
https://en.bitcoin.it/wiki/Mining_hardware_comparison
Chetnie zobacze, jak wypadnie takie porownanie z nowa platforma ;)
Co do AA w BF'3, normalne AA mozna olac (spore spadki wydajnosci) i dac tylko Post Antialiasing (FXAA), wyglada dobrze ;)
"MINUSY WYMIANY KARTY" - każdy jeden argument mogę podważyć.
Zresztą - nie tylko karta graficzna i procesor wpływają na wydajność całego komputera. Każdy jeden element jest ważny (nawet odtwarzacz / nagrywarka DVD). Niektórzy twierdzą, że warto dopłacić więcej do zasilacza kosztem innych elementów. Ja tego nie podważę.
takich core 2 duo byś musiał wsadzić 5 zeby wykorzystać w pełni gtxa
Do niedawna posiadałem C2D E6300. Grafikę z początku miałem gf 7300gt, a później 9800gt.
W Battlefield:BC2 na ostatniej konfiguracji było ponad 20fps na średnich detalach. Ustawienia grafiki mogłem zmieniać pomiędzy low i med ale to nie zmieniało tego, że miałem w multi opóźnienia. Występowało coś podobnego do lagów. Pomimo tego, że oba rdzenie pracowały na 100% nie wyrabiały w obliczeniach i obsługi transmisji sieciowej. Oczywiście lagi nie były związane z problemami z łączem.
Po zmianie komputera okazało się jak płynnie BC2 może chodzić.
Tak więc jasne, że zmiana karty graficznej daje dodatkową ilość fps, jednak nie zawsze odbija się to na płynności gry.
Cpu: Phenom II x4 955 @3.6 GHz
CPU/NB: @2800
Pmięci: 4 GB 1600 MHz 9-9-9-24
Grafika: Radeona 6870 @940/1100 MHz
Na tym sprzęcie BF3 w multi, Max detale, 1600x900 pix, AA OFF i Aniso x16: FPS utrzymywał się na poziomie 45-60 Kl/s, a mimo to miałem ścinki/lagi. Myślałem, że przyczyną jest procek, ale jego wykorzystanie nie przekracza 60-70%. Później podejrzenie padło na grafikę, a ona prezentuje zbliżona wydajność do twojego podkręconego 5850. Wtedy wpadło mi w ręce dodatkowe 8GB pamięci RAM i okazało się, że przyczyna ścinek/lagów leżała właśnie tutaj. BF3, crysis 2 też potrafiły zapchać całą pamięć operacyjną. Po zamontowaniu 8 GB problem niemal nie występuje :)
Dowodzi to tylko jednej rzeczy. Mianowicie tego, że każdy podzespół komputera ma mniejszy lub większy wpływ na wydajność.
Co do samej recenzji, to bardzo podoba mi się podjęty w niej temat, choć nie do końca odpowiada ona na zadane pytania. Spowodowane jest to brakiem porównania do mocniejszego procesora. Myślę jednak że gdy zmienisz już platformę na pewno zamieścisz uzupełniający artykuł.
Troszkę kuleje styl wypowiedzi, często zdarzają się powtórzenia i literówki. Występują tu również liczne błędy w szyku słów w zdaniach. Aczkolwiek nie są one bardzo uciążliwe.
Ode mnie +++
Athlon x2 5600+ windsor nie kręcony
2x2GB GoodRamm ddr2 800
radeon hd4870
I porównać jak będzie wyglądała wydajność w benchmarkach (czy to syntetykach czy to z gier) w przypadku gdy tę grafikę wrzucę do konfiguracji:
celeron g530 (pocięty sandy bridge)
2x2GB goodram ddr3 1333 (obniżę timingi bo celek obsługuje ponoć tylko 1066 MHz ale to już dokładne info w recenzji będzie)
Osobiście śmię przypuszczać, że obecny procek nie pozwala karcie rozwinąć skrzydeł oraz że ten celeron będzie sporo wydajniejszy mimo jego niewygórowanej ceny.
W związku z moimi planami proszę o feedback od was jakich benchmarków użyć (poza syntetykami i darmówkami używanymi do testowania w dziale "benchmarki") jednak zależy mi na tym, żebym nie musiał kupować gry na potrzeby testu tylko bardziej na benchmarkach które nie są na benchmarkowej witrynie używane a dostępne bezpłatnie. Czekam na sugestie. W przeciągu 2 tygodni będę miał sprzęt i zacznę coś testować ale proszę o cierpliwość bo dużo czasu wolnego niemam.
PS. Będzie najważniejszy powód dla którego zdecydowałem się na platformę intela a mianowicie porównanie prądożerności.
Ode mnie zasłużony +
Ja bym podziekowal, uwazam ze zasada jest jedna : "Jak bym chcial bez frytek to bym powiedzial -poprosze bez frytek nie !!!"
Ale to tylo moje zdanie. Pozdrawiam.
''czasami mała różnica w wydajności względem różnicy w cenie''
Daj tej karcie chociaż Phenom'a II X4/X6 @ 4.0GHz+ (albo Corei5,7) a zobaczysz ''różnicę'', albo nawet ją ''poczujesz'' ;-)
W tedy MSI gtx460 768mb i AMD 9550 x4. Nie zależnie od detali średni FPS to 25. Dopiero gdy przesiadłem się na i5 2400 wskoczyło pełne 60.
To tylko mały pokaz fizyki GTA :
http://www.youtube.com/watch?v=dBCIgBnhY_E&feature=player_embedded
Co do ograniczania karty graficznej przez procesor to podam mój przykład.
intel core 2 duo 6750 @3.2, geforce 8800 gtx 768MB zmieniony na radeona HD6850, 4 X 1GB ram 800Mhz.
Na starym geforce 8800 gtx, w grach wymagających obciąźenie cpu oraz gpu ponad 90%. Po zmianie karty na radeona obciążenie procesora nadal ponad 90%, a gpu rzadko wskakuje ponad 60%.
W grach brak spektakularnego przyrostu mocy.
Całośc miło się czytało , szkoda że ten gtx taki drogi :)
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++
"Przy okazji testów w Crysis 2 postanowiłem sprawdzić pewien od dawna interesujący mnie szczegół. Ile pamięci graficznej potrzebuje Crysis 2 po uruchomieniu go z teksturami wysokiej rozdzielczości i w najwyższym możliwym trybie graficznym. Jako że sterowniki nVidii umożliwiają monitorowanie tego parametru nie omieszkałem tego sprawdzić."
Jak włączyć to monitorujące okienko?
Oczywiście leci +
chyba żartujesz? Mocniejsza karta i 200mhz mniej na rdzeniu i taka różnica??? Coś mi tu nie gra.
Nawet mój e8400@4-4,2Ghz nie zapewnia takiej płynności jak pełny Q9XXX z 12 mb.
Jestem przed zakupem nowej karty graficznej. Moja obecna konfiguracja to:
Intel core 2 duo e6750 2.66GHz
płyta główna ASUS ASUS P5N32-E SLI
ASUS EN8800GTX 768 MB
4x1GB DDR RAM 800 Mhz Geil
Monitor iiyama ProLite B2403WS (z reguły gram w rozdzielczości
1920×1200 (16:10) )
Do tej pory śmigały mi wszystkie gierki - niestraszne mu były oba Crisisy, Metro 2033, GTA IV i inne wymagające gierki nawet obecnie BF3 śmiga aż miło. Niestety karta zaczyna mi się palić tzn osiąga temperatury 104 stopnie i jest to niepokojące. Nie pomogła zmiana pasty termoprzewodzącej ani całkowite odkurzenie kompa. Tak więc zapadła decyzja kupna nowej karty.
Na uwadze mam model:
ASUS ENGTX560 Ti DCII TOP/2DI/1GD5
Pytanie brzmi czy opłaca mi się do takiej konfiguracji wsadzać taką kartę. Jestem świadom, że nie wykrzesam z niej 100%, ale czy porównując do obecnej konfiguracji zobaczę widoczny przyrost mocy?
Ano dlatego że CPU odpowiada za grafikę wektorową, odpowiedzialną za "szkieletową" budowę obiektów niczym figur geometrycznych najpierw obliczanych a potem tworzonych w czasie rzeczywistym. To co na monitorze widzimy to tak naprawdę płaski obraz a nam się tylko wydaje że są one w 3D.
Gdyby gry nie były oparte na karcie graficznej a semym CPU - wyglądały by mnie więcej tak: http://www.qweas.com/downloads/graphic/cad/scr-point-cloud-for-autocad.gif
Teraz do i3 kupiłem używanego 5850 za 450 zł i jestem szczęśliwy.
Do gier (np. GTA IV, NFS The Run, Crysis 2, Battlefield 3) Nie potrzeba mi nic więcej.