W naszych testach, gdzie uwzględnionych było dziewięć gier i dwa benchmarki, nie odnotowaliśmy żadnego nieprawidłowego działania kart graficznych GeForce na procesorze Intel i7 920 z aktywnymi dwoma rdzeniami. Czy zatem stwierdzenie, jakoby akceleratory „zielonych” miały jakieś problemy z dwurdzeniowymi procesorami jest błędna?
Na razie właściciele 2-rdzeniowych procesorów mogą spać spokojnie, gry nie powinny stracić na wydajności w połączeniu z kartą GeForce
Niekoniecznie, bo zależności w sprzęcie komputerowym jest bardzo wiele. Począwszy od tych podstawowych, jak:
- wersji sterowników (nie tylko kart graficznych, ale i np. chipsetów płyt głównych)
- sprzętu, a dokładniej jego konfiguracji (karty graficzne, płyty główne, chipsety, karty dźwiękowe, itd.)
- konkretnych gier (uwzględniając dodatkowe łatki, modyfikacje, czy same miejsce w grze)
To tylko niektóre z nich. Biorąc pod uwagę wykonane przez nas testy można skreślić stwierdzenie, jakoby układy graficzne GeForce miały zawsze problemy z wydajnością na procesorach dwurdzeniowych. Co prawda może to nastąpić (patrz powyższe punkty), ale nie musi.
Znaleźliśmy wpisy wielu użytkowników, którzy posiadając starsze procesory dwurdzeniowe nie natknęli się na jakiekolwiek problemy z akceleratorami zielonych. Podejrzewamy, że zbyt duże obciążenie procesora sterownikami mogło występować na konkretnych wersjach ForceWare i kilku czytelników mogło się na ten problem natknąć. Niestety nie jesteśmy w stanie sprawdzić wszystkich wydanych przez Nvidia aplikacji i zbadania ich w kilkunastu grach.
Ponadto, przeprowadziliśmy dziesiątki testów na procesorze Intel Core 2 Duo E8400 i także nie zauważyliśmy problemu, dla którego przygotowaliśmy niniejszy artykuł.
Chętnie wysłuchamy waszych komentarzy, co sądzicie na ten temat. Jeżeli u siebie zauważaliście wyraźnie gorsze działanie karty graficznej GeForce po zmianie procesora na jednostkę z dwoma rdzeniami (lub dezaktywację dwóch rdzeni w układzie czterordzeniowym), prosimy o dokładne podanie konfiguracji oraz oprogramowania. Postaramy się pomóc.
Przeczytaj także: | ||
Zalman VF3000F - test systemu chłodzenia na GTX 580 | Karta graficzna - poradnik jak wybrać | Najlepsze karty graficzne do gier - porównanie, wydajność, ranking |
Komentarze
139Ale czy przypadkiem sprawa nie dotyczyła dwóch rdzeni logicznych?
(czyli 2-uch CPU widzianych po stronie systemu - 2C/2T)
Problem pojawia się, kiedy gra obciąża dwurdzeniowy procek w pełni, a do tego narzut sterowników obniża i tak niską wydajność w grze. A 4 rdzenie nie są do końca obciążone przez grę, więc narzut sterów nie robi na nim wrażenia.
Tak więc zamiast sprawdzić granie na 2- i 4-rdzeniowym procku, to zrobiliście tylko testy GPU, co jest bez sensu i cały artykuł nadaje się do kosza.
Mógłby ktoś poprawić błąd w którym po zapisaniu komentarza odsyła nas do pierwszej strony testu?
Strasznie to wnerwiające i nabija Wam odsłon (odświeżeń) artykułu które są spowodowane błędem a nie ilością odsłon.
Prośba do redakcji - uzupełnijcie artykuł o testy z wyłączonym HT. To w końcu nie jest trudne, można je przeprowadzić na tej samej platformie, wystarczy wyłączyć HT w BIOSie.
@Lightning
Nie wiesz o co chodzi to nie komentuj - proste. Problem polegał na tym, że w połączeniu z 2-rdzeniowym procesorem karty nV wypadały o wiele słabiej niż porównywalne produkty ATI/AMD. W przypadku 4 rdzeni, karty obu producentów wypadały podobnie.
Przypominam Ht
NIC NIE JEST TWORZONE BEZ PRZYCZYNY
http://www.youtube.com/watch?v=kkrqyEpINSQ
"test" o kant d..y potłuc.
Sytuacja dotyczy czystych 2 rdzeni vs 4 rdzenie. A u was minimum to 4 wątki.
Podsumowując: 9 stron wciskania kitu.
Tom's Harware przygotowało kiedyś świetny artykuł na ten temat: Building A Balanced Gaming PC http://www.tomshardware.co.uk/build-balanced-platform,review-31726.html
Tam było pięknie pokazane jakiego CPU potrzebuje dana karta by pokazać pełnie swoich możliwośći. Np. przy Pentium E6300, Radeon HD4890 mają lepszą wydajność w World in Conflict niż GTX 295. Natomiast przy Core i7 920 GTX 295 jest prawie 2x lepszy.
Do pracy redakcjo !!! no chyba ,że macie tantiemy za publikacje tego czegoś i będziecie w tej postaci trzymać najdłużej jak się da.
załatwcie c2d 8400 i jakiś C2Q.
chcecie dobry art? niestety trzeba popracować ciężej.
P.S.
w newsie o systemie ocen komentarzy było o tym ,że użytkownicy będą mogli mieć jakieś rangi za ilość łapek w dół i w górę.
proponuje podobne rozwiązanie dla redaktorów, może bardziej się przyłożycie do swojej pracy, bo charytatywnie raczej tego nie robicie.
przecie te 4 wątki to toż jak 4 rdzenie są
Nie kazdy ma dzis w komputerze odrazu i5 albo i7.
Prosicie o testy procesorów bez HT a na nvision parę miesięcy temu przeprowadzono podobne testy, również pokazując różnicę między 2C/4T i 4C/8T z których wynikało jednoznacznie, że nvidia MA problem z narzutem sterownika na procesor! Ponadto, widać także (mniejszy lub większy) wzrost wydajności na kartach AMD przy zastosowaniu 4C/8T -
http://nvision.pl/media/gals/2011/210/wykres_corei57_procent.png
Dzisiejszy artykuł ukazuje coś zupełnie innego. Brak jakichkolwiek różnic w wydajności miedzy 2C/4T vs 4C/8T zarówno u AMD jak i Nvidii!
Wasze pytania powinny zatem brzmieć podobnie do moich: Dlaczego w lutym różnice między użytymi procesorami wynosiły ponad 100% u zielonych i 50% u czerwonych a dziś praktycznie 0%?
Czy to zasługa innych (wydajniejszych) układów graficznych zastosowanych w testach?
Czy to sterowniki w obu obozach zostały dopracowane do perfekcji jeśli chodzi o skrócenie czasu procesora?
Łatwiej byłoby odpowiedzieć gdybyśmy bazowali na tej samej platformie testowej a zmianie uległby tylko użyte sterowniki bo to one były uznawane za głównego winowajcę...
Tak czy siak, dzięki za artykuł bo zdecydowanie można z niego wyciągnąć wiele fajnych wniosków i jest on świetną bazą do dalszych testów bo imo pozostało jeszcze wiele pytań bez jednoznacznej odpowiedzi! :)
amd 250 - 3ghz
oraz podkręcony geforce 560ti soc (ten który dorównuje momentami 570)
1920x1080
Min, Max, Avg
16, 40, 26.643
i to na dx9! czyli 2 razy słabiej, niż w tym teście.
tu chodzi o 2rdzenie/2wątki -.-
MAcie tu test a nie sie wymądrzacie...
Podam kilka razy link aby karzy zauważył jakie bzdury piszecie
http://nvision.pl/2-rdzeniowy-procesor-i-karta-graficzna-NVIDIA-GeForce-Nigdy--Articles-430-ndetails-3.html
http://nvision.pl/2-rdzeniowy-procesor-i-karta-graficzna-NVIDIA-GeForce-Nigdy--Articles-430-ndetails-3.html
http://nvision.pl/2-rdzeniowy-procesor-i-karta-graficzna-NVIDIA-GeForce-Nigdy--Articles-430-ndetails-3.html
http://nvision.pl/2-rdzeniowy-procesor-i-karta-graficzna-NVIDIA-GeForce-Nigdy--Articles-430-ndetails-3.html
http://nvision.pl/2-rdzeniowy-procesor-i-karta-graficzna-NVIDIA-GeForce-Nigdy--Articles-430-ndetails-3.html
http://nvision.pl/2-rdzeniowy-procesor-i-karta-graficzna-NVIDIA-GeForce-Nigdy--Articles-430-ndetails-3.html
http://nvision.pl/2-rdzeniowy-procesor-i-karta-graficzna-NVIDIA-GeForce-Nigdy--Articles-430-ndetails-3.html
http://nvision.pl/2-rdzeniowy-procesor-i-karta-graficzna-NVIDIA-GeForce-Nigdy--Articles-430-ndetails-3.html
http://nvision.pl/2-rdzeniowy-procesor-i-karta-graficzna-NVIDIA-GeForce-Nigdy--Articles-430-ndetails-3.html
po zmianie procka na i5 2500k gry nabrały płynności no i fpsów:) dla porównania d3mark06:
cd2 4ghz gtx570 18tyś pkt
i5 2500k 4,5ghz 28tyś pkt.
Mówiąc prosto benchmark schodzi na psy (z całym szacunkiem do czworonogów) .
Chodzilo o starsza wersje sterownikow, sama nVidia przyznala sie zreszta i wypuszczajac jedna z ostatnich sterownikow sama w opisie zaznaczyla, ze sterowniki poprawiaja wydajnosc na procesorach dwurdzeniowych.
Jednakze chodzilo tu o niewielka poprawe, a wiec i niewielki spadek wydajnosci. To, co "zyczliwi" weszyli na zmasowany, korupcjogenny, nieuczciwy interes nVidii, okazalo sie nie wartym funta klakow bugiem w kilku wersjach sterownikow. Lata poprawiona, nie bylo sensu nic testowac - chyba, ze na archiwalnych sterach. I nie klatki, ale obciazenie CPU, choc w wydajnosci tez widac.
Tyle moich skromnych 2 groszy.
Miałem niedawno 2 rdzenie i dobrze się to wszystko spisywało , a logiczne jest że po zmianie na 4 rdzenie wydajność wzrośnie.
W końcu w wielu grach e8400 jest równy q6600 - czyli q6600 nie jest w żadnym wypadku gorszy a co dopiero w aplikacjach wykorzystujących w pełni z 4 rdzeni .
Czyli jak takie porównania są że jakiś tam mniejszy narzut sterownika na 4 rdzeniach to tylko wynika z tego że na 4 rdzeniach jest lepsza wydajność ogólna
Niektóre silniki graficzne wykorzystują tylko 2 rdzenie - Cry Engine 2-3, a niektóre 3-4. Wszystko zależy od optymalizacji.
http://www.youtube.com/watch?v=QUkvhOhrDVk&feature=relmfu
Dodatkowo redakcja dopuściła się manipulacji gdyż funkcja HT w procesorze była aktywna! Recenzent/tester wykonał masę pracy która do niczego nie prowadzi.
Przeciętny statystyczny komputer gracza oraz platforma entuzjasty z grubym portfelem, jak na razie jest pokazana tylko jedna konfiguracja ..
Prosze bardzo
2 rdzenie vs 4 rdzenie
http://forum.benchmark.pl/topic/33988-e5200-vs-q6600-maly-test-po-zmianie/
Tu też masz wybrane gry co i nawet z 6 rdzeni potrafią kożystać.
To zacznijmy.
BC2 nie wiem jak byś nie robił w zadymach zawsze ukaże ci się moc CPU
Crysis-nie testuje się tym wbudowany
Crysis2-nie testuje CPU w nagranym demie
Mafia 2-nie testuje się wbudowanym CPU bo to test graficzny
Shogun 2-nie testuje się wbudowany po raz kolejny test gpu
S.T.A.L.K.E.R- jest jedno wątkowy to i nie zobaczysz różnic na rdzeniach na tym samym procku.
Metro sugeruje test graficzny bo o test CPU to w tej grze napradę jest ciężko szczególnie że saves nie możesz sobie ustawić.
Masz na przykładzie BC2 co w tym artykule jest nie halo
http://img14.imageshack.us/img14/9016/bc2da.jpg
Autor popełnia te same błędy co popełniał jak pracował dla Pcarena
"Increases gaming performance by up to 12% for dual-core CPUs in CPU-limited cases."
Jak widać NVIDIA przyznała się.
bez różnicy bo w pierwszej kolejności musisz nauczyć się rozróżniać test gpu od cpu a jak widać nie wychodzi to zaciekawie.
Na sb 2600K pokaże ci różnice na tych ustawieniach co zrobiłeś w praktycznie każdej grze (pominę metro bo trzeba robić z fizykiem i saves nie wygodne).
Stalkera z takiego porównania możesz od razu wyrzucić przecież jest to gra jednowątkowa i różnice są tylko na architekturach procesora
Masz przykład jak Crysis 2 powinien wyglądać w takim porównaniu
http://img43.imageshack.us/img43/5092/14654756.jpg
Dopytaj się jak to sie robi Tomka teraz powinien mieć trochę wolnego czasu ;)
Napisał że testuje karty graficzne w oddzieleniu od procesora.
No to jak niby chciał sprawdzić wpływ narzutu na procesor? Ha! Ha! Testerze, najpierw musisz iść do kogoś po naukę; jak testować nie rozumiane przez siebie zagadnienia,.. do kogoś pokroju focusa a dopiero możesz się brać za testy.
Nikt, kto poprawnie rozumie zależności sprzętu i oprogramowania, korelacje Sterownik/CPU/GPU, nie potraktuje poważnie testera, który testuje we wbudowanych benchmarkach. One są robione specjalnie tak, aby oszukać konsumenta, laika (jak to nasza gra wspaniale chodzi na "twoim" sprzęcie) i niczego akurat w tym przypadku nie udowadnia.
Taki test robi się właśnie w miejscach najbardziej obciążających procesor, czyli wszelakiej maści zadymy. Dopiero wtedy widać jak sterownik radzi sobie z rozdziałem zadań procesor-karta. No i po kiego grzyba włączać tu AA i AF, co tylko pokazuje niedomogi samej karty a nie to o co chodzi w założeniach testu. Większość graczy ma średni sprzęt i musi przy testowych rozdziałkach z upiększaczy zrezygnować a wtedy ujawniają się większe różnice.
Ten test to jeden wielki bag, co widać po lawinie krytyki, dyletanctwa i niekompetencji testera. Że też nikt nie ma nad tym kontroli, aby na takim serwisie ukazywały się takie śmieci! Całkowicie wypaczające ogląd, jak się rzeczywiście sprawy mają (czy tam miały), tym którzy nie są biegli w komputerach.