Na całe szczęście problem dotyczy tylko w niewielkim stopniu jednostki 2-rdzeniowe i 4-wątkowe, a tych jest całkiem sporo na rynku, bo są to wszystkie Core i3 i Core i5 (2-rdzeniowe serie poprzedniej generacji). Niestety posiadacze słabszych jednostek z rodziny Pentium, jak i 2- oraz 3-rdzeniowych Phenomów, no i oczywiście bardzo duża grupa właścicieli Core 2 Duo - mają problem. Na ich procesorach GeForce będzie, a właściwie to robi to już od ponad roku, zaniżał wydajność w miejscach zależnych od wydajności CPU. Na dobrą sprawę to przy modernizacji tego typu sprzętu (bądź zakupu nowego z niższej półki wydajnościowej) chyba jednak lepiej polecić teoretycznie słabszego Radeona, bo ten i tak finalnie zapewni wyższą wydajność.
Niestety nie wiemy, jak relacje wydajności wyglądają na procesorach AMD z nowej serii FX (architektura Bulldozer). W chwili przygotowywania tego artykułu, jednostek tych nie było jeszcze na rynku.
Nie jesteśmy programistami by wskazać przyczynę problemu. Jesteśmy w stanie zaobserwować skutki i je udokumentować – i tych jesteśmy pewni. W przypadku jednostek przynajmniej 4-wątkowych problem, nawet jeśli wystąpi, to nie będzie na tyle uciążliwy, by rezygnować z wybranej przez siebie karty graficznej. Problem w pewnym sensie jest już marginalny, gdyż dotyczy tylko niskiej półki wydajnościowej, ale wciąż bardzo dużo osób ma procesory Core 2 Duo, czy 2-rdzeniowe Athlony, jak i Phenomy. Z drugiej jednak strony trudno jest tą marginalnością tłumaczyć tak źle napisane sterowniki do karty graficznej. Mamy nadzieję, że NVIDIA wreszcie zrobi coś w kierunku poprawy tej sytuacji.
Autorzy artykułu:
- Tomasz Niechaj
- Kamil Myzia
Przeczytaj także: | ||
Zalman VF3000F - test systemu chłodzenia na GTX 580 | Karta graficzna - poradnik jak wybrać | Najlepsze karty graficzne do gier - porównanie, wydajność, ranking |
Komentarze
180Kiedyś THG zrobili art o jakichś anomiach w działaniu sterownika 2D w przypadku radeonów, wysłali swoje wnioski do AMD i rozwiązanie pojawiło się w kolejnej wersji sterowników.
powiem szczerze że lepszego artykułu w życiu nie czytałem i mam nadzieję że w przyszłości już taki problemów z mocą procesora nie będzie .
wielkie dzięki :] długo czekałem na ten artykuł a teraz lecę pochwalić się kolegom ^^
Nie ma czegoś takiego jak dostosowywanie kart graficznych pod serię procesorów. Radeon będzie równie dobrze/źle działał na jednym czy drugim procesorze. Z całą pewnością nie ma czegoś takiego jak szybsze działanie na procesorze X. Oczywiście są wyjątki jak wadliwie działający sterownik w przypadku określonej serii procesorów (czy tym podobne) - co jest tematem tego artykułu. Na czym miałaby taka optymalizacja polegać, podczas gdy wszystko działa na warstwach systemu operacyjnego? :) Karta graficzna "nie wie" jaki jest procesor - jedyne co może być detektowane to właśnie ta liczba rdzeni, czy ewentualnie taktowanie. Ale grafika "nie wie" czy siedzi tam 4-rdzeniowy Core i5 czy 4-rdzeniowy Phenom II X4.
Co do uwagi na temat ceny grafik. Nie w tym rzecz: nawet jeśli wzięlibyśmy grafiki pokroju HD 6770, GTS 450 to wyszłoby to samo. Dla ujednolicenia testu użyliśmy relatywnie mocnych kart graficznych.
Dotąd wydawało mi się że kupno 2 rdzeniowego phenona i odblokowanie rdzeni jest najlepszym pomysłem, a tu się okazuje że nie koniecznie - bo nawet mając te 4 rdzenie, i tak i3 z "realnymi" 2 jest nieraz o 50% szybszy względem 4 rdzeniowego (akurat tak wysoki wynik był w 2, ale w reszcie też był zawsze szybszy chociażby minimalnie)... A i3 można przecież wyłapać za mniej niż 400 zł w tym momencie... dodając do tego podkręcanie - gdzie raczej na AMD nie osiągnie się więcej jak 3,7 ghz powiedzmy, a na Intelu jak najbardziej powyżej 4, można wysnuć interesujące wnioski... Może bardziej zaznajomione z tematem osoby wiedziały to już wcześniej - ja się dowiedziałem dopiero teraz :P
A, rzeczywiście - szczerze mówiąc, to uleciał mi ten 740 z głowy. Praktycznie o nim nie było słychać. Poprawka w drodze. Dzięki za uwagę.
Dławił, nie dławił - Twój procesor będzie miał dużo więcej pracy niż przy Radeonie - o to chodzi. A tym samym będzie wolniej niż nawet na wolniejszym Radeonie.
Gdyby to był test procesorów, to oczywiście takie porównanie byłoby ciekawe i jak najbardziej pożądane. Ale chcieliśmy w teście zawrzeć popularne jednostki, bo i tak kluczem są relacje między różnicami na Radeonie i GeForce.
To nie jest tak, że GENERALNIE nvidia bardziej obciąża procesor, bo jak widzisz po wynikach assassina więcej FPS jest na GeForce - choć jest to wyjątek. Nie potrafię powiedzieć dlaczego jest tak, że w jednej grze lepiej raz lepiej jest na karcie A, a w innej grze na karcie B (jeśli chodzi o obciążenie CPU przez sterownik grafiki), ale taki jest fakt. To co można zgeneralizować, to większy narzut na 2-rdzeniowy procesor przez sterownik grafiki nvidii. Niestety nie wiadomo co by było gdyby nvidia napisała lepiej sterowniki - może wtedy w każdej grze byłoby lepiej, a może nie... Nie wiadomo.
@ Marcin. A witam, witam - miło mi :)
Nie ma potrzeby by 6-rdzeniowca, którego praktycznie nikt nie ma zamieszczać w tym teście.
Jeśli chodzi o optymalizacje sterowników przez nVidia to wątpię aby kiedykolwiek mieli poprawić sterowniki. Sądzę, że dadzą sobie z tym spokój, choćby ze względu na fakt, że dwurdzeniowe jednostki są w tej chwili bardzo szybko wypierane prze czterordzeniowe procesory. Te z kolei dużo lepiej radzą sobie nawet ze słabo zoptymalizowanymi sterownikami.
Natomiast osoby kupujące dwurdzeniowe CPU, najczęściej kupują karty graficzne, których cena rzadko przekracza cenę samego procesora lub zadowalają się zintegrowanym GPU. A takie karty graficzne nie są przeznaczone do wysokich rozdzielczości i i maksymalnych detali, a więc znaczenie sterowników jest mniejsze bo grafika nie potrzebuje tak dużego udziału CPU w swoich zadaniach. Choć mogę się mylić i to jest kolejny ciekawy temat na test :)
pozdrawiam
Mam pytanie czy ktoś miał problem z Falloutem 3 i GTX 460 (wiem że na win 7 jest masa problemów z ta grą) u mnie działa stabilnie jednak występuje zjawisko mikroprzycięć choć FPS jest stabilny i wysoki to podczas poruszania się obraz nie jest "smooth" jak to mówią. Podobno na starych sterach serii 186 jest ok tylko jak wymusić instalację sterów nie obsługujących sprzętu? Będę wdzięczny za odpowiedź jeśli ktoś zna sposób.
Gratuluję udanego artykułu (po poprawkach) i pozdrawiam ;)
Absolutnie nie znam się na procesorach, aa chcę zrobić upgrade kompa. Czy Core 2 Duo Q9550 jest wystarczająco wydajny? Zamierzam kupić kartę HD 6850 (ew. 6870), czy procek nie będzie utrudniał jej pracy?
Pozdrawiam.
Dzięki Ci wielkie redakcjo i liczę na więcej takiego profesjonalnego podejścia.
Pozdrawiam.
Nawet nieźle sie podkręca.
http://valid.canardpc.com/cache/screenshot/1013177.png
Ile temu dali taka recke? rok, dwa lata temu?
Można by zrobić małe addendum?
Druga strona pierwszy "fragment", jest trochę z d... wzięty. Zbyt ogólnikowo piszecie.
Przecięż na starym benchmarku był świerny art.. podajże z 98 roku?... Lol nie pamiętam....
Wartałoby tu wkleić. Bo to co piszecie to ehmmm... DirectX to generalnie wszystko. Rage natomiast korzysta z inputa DX, a grafika OpenGL...
Do czego zmierzam to jaką CPU ma interakcję z GPU to dość skomplikowany proces, który wymaga szerszego opisu i przedstawienia ewolucji GPU, dla dogłębnego zrozumienia....
Oczywiście jest to zjawisko rzadkie i w normalnych grach raczej nie zachodzi. Bo twórcy ograniczają AI i fizykę w ten sposób, aby zawsze działały płynnie. Strategie czasu rzeczywistego są z kolei silnie optymalizowane pod tym względem.
Czepiam się tylko tego jednego stwierdzenia, na resztę artykułu nie ma ono specjalnie wpływu. W zasadzie to jest wtrącone bez sensu.
Ogólnie AMD dostosowuje swoje karty do procesorów.
BTW chyba nie ma gracza, który gra na dwu-rdzeniowym procesorze i kartą za co najmniej 1200 zł.
Dla przykładu u mnie GTX260 pożerał Phenoma X4 9550 w dragon age i w crysis1, m. in gdy się dużo na ekranie działo, płynność w grze potrafiła czasem spaść do 5 fpsów! :) a przecież to procesor 4 rdzeniowy, według testów powinno być OK, ale było jak te 2 rdzenie nawet gorzej... Co dziwne jak miałem wcześniej słabszego 8800GT takich JAJ nie było, widocznie nowsza seria kart GeForce bardziej polega na procesorze.
Dowód na to że stara nie dopracowana architektura AMD 4 rdzeni również potrafi słabo współpracować z GeForsem.
Dzięki boku jestem ateistą i kupiłem jednak radka.
widzę, że sytuacja się troszkę poprawiła względem Twojego poprzedniego artykułu na nvision, mimo to nv nadal ma problem.