Podsumujmy wszystkie wnioski wyciągnięte z przeprowadzonych testów i analiz. Mając do wyboru jeden z dwóch najszybszych układów graficznych AMD i NVIDIA, chyba bardziej skłonilibyśmy się do tego drugiego. GeForce GTX 480 przede wszystkim jest o wiele tańszy. Teoretycznie oferuje wyższą wydajność podczas teselacji. Wydajność po włączeniu wygładzania spada w mniejszym stopniu niż na konkurencyjnym układzie. Nie bez znaczenia są również efekty fizyczne PhysX, chociaż gier obsługujących tę technologię jest ciągle jak na lekarstwo.
Ponadto w porównaniu do konkurenta GeForce jest mniejszy, co sprawia, że prędzej go pomieścimy w obudowie. Pobór energii na obu akceleratorach jest duży, chociaż Radeon 5970 wychodzi z tego porównania lepiej. Podobnie, jak w przypadku osiąganych temperatur.
Przy wyborze którejś z przetestowanych kart zwróćcie uwagę, że GeForce GTX 480 generował słabszą jakość tekstur. Może to wpływać na poprawę wydajności kosztem grafiki.
Zadowoleni byliśmy z możliwości podkręcania. Najszybsze karty na świecie pozwalały na programową zmianę napięć i wyciskanie setek megaherców. To sprawia, że Radeonem 5970 i GeForcem GTX 480 często interesują się overclockerzy, bijąc na nich rekordy w różnych benchmarkach.
Według nas porównanie wygrywa GeForce GTX 480. A jak wy uważacie? Zapraszamy do komentowania!
Moja ocena: ASUS Radeon HD 5970 | |||
plusy: • super wydajność w maksymalnych detalach • wydajny w każdym ustawieniu filtrowania anizotropowego • bogate wyposażenie; CMR: Dirt 2 w prezencie • obsługa wielu monitorów (Eyefinity) • możliwość programowej zmiany napięcia rdzenia graficznego • duże możliwości w podkręcaniu | |||
minusy: • gabaryty! • wysoki pobór energii w 3D • gorąca • głośne chłodzenie w trybie 3D • zbyt droga | |||
Orientacyjna cena w dniu publikacji testu: 2300 zł | |||
Moja ocena: MSI GeForce GTX 480 | |||
plusy: • super wydajność w maksymalnych detalach • jedna z trzech pełnych wersji gier do wyboru • mały spadek wydajności po włączeniu FSAA • wydajny w każdym ustawieniu filtrowania anizotropowego • PhysX, CUDA • obsługa wielu monitorów (tylko w SLI!) | |||
minusy: • głośne chłodzenie w trybie 3D • wysoki pobór energii • gorąca • dość długa (27 cm) • jakość tekstur | |||
Orientacyjna cena w dniu publikacji testu: 1600 zł | |||
Zobacz także: | ||
Test 4 kart GeForce GTX 460 | Test tanich kart: lepszy Radeon czy GeForce? | GeForce GTX 460 - Fermi zrobiona jak trzeba! |
Komentarze
236MSI GeForce GTX 480 Orientacyjna cena w dniu publikacji testu: 2300 zł
. GeForce GTX 480 przede wszystkim jest o wiele tańszy
Ale jaja ......
Wolne żarty... Przyzwyczaj się sam jak wolisz.
Kupujesz GTXa albo z blokiem wodnym albo Radka z Vapor-X i masz komfort ciszy.
Gdybym miał kasę na takie karty to był wziął radeona ale lepiej jest kupić 5870 lub inne tańsze modele
To o dwa razy za dużo. Multi GPU to tylko do puszczania 3d Marków, a nie komfortowej gry.
Drugi film przedstawia fizykę w kilku najbardziej znanych grach jakie się dotąd ukazały (m.in. Batman: AA, Dark Void, Edge Mirrors, Darkest of Days, Cryostasis).
powinno być Mirrors Edge, a nie na odwrót ;)
"Alien vs Predator 2" ta nowa to 3 :]
mam w domu kompa z grafiką HD 5770 1 GB DDR5 + i5 750 4 GB RAM 1333 Mhz i drugiego z grafiką GTX 260(216) + Core2 Q6600 4 GB RAM 800 Mhz i na obydwu komputerach można pograć na Full HD w te same gry z zadowalającą płynnością gry lecz gram na tym drugim bo obsługuje Physix czego jak na razie nie uświadczysz w produktach ATI
to trzeba zobaczyć na żywo w grze i poczuć ten klimat i dopiero się wypowiadać że coś jest lub nie jest stronnicze..
pozdrawiam
Taka moja uwaga, to tyle :).
Cały artykuł śmierdzi mi sponsoringiem NVIDI - a Ci chłopcy takie rzeczy potrafią robić.
Popz33 wejdź chociaż na ram.net.pl tam masz 480 za 1500 zł od inno3d czy sparkle a za 1600 od zotaca natomiast najtańszy 5970 kosztuje 2200 zł ;]
co do grania na kilku monitorach hmm wolałbym kupić 42" albo większy HDTV (np. 60") niż męczyć się z kilkoma ekranami, ale i tak moj nec 24" mi styka -wydaje się wielki pomimo że mam go już kawał czasu ;)
Jak bym wybierał, to Nv, 1500zł za karte, w której nie zobacze róznicy w porównaniu z HD 5970 która jest o 700zł droższa.
Wybrał bym Nv.
Ps. Powiedział by mi ktoś czy z aktualną konfiguracją którą mam w profilu zasilacz pociągnął by Nv? z góry dzieki ;)
Naprawdę dobra robota!
Dobrze, że ceny GTX 480 już spadły
Mnie jednak nurtuje jedna rzecz- dlaczego ATI i Nvidia nie pogodzą sie w sprawie PsyhX? Dlaczego Nvidia nie pójdzie na rękę ATI albo ATI na Nvidia. Gry z fizyką prezentują się o wiele lepiej a gdyby obie firmy uzgodnili jeden standard wtedy byśmy mieli przełom w jakości gier.
Każdy screen przemawia za ATi.
A jakość generowanego obrazu to najwazniejsza sprawa.
NV jest poprostu słabsze... od zawsze
Reasumując gdyby karty nVidi wyswietlały obraz o takiej samej jakości były by jeszcze słabsze.
Optymalizacja wzgledem pogorszenia jakości obrazu to OSZUSTWO!
pozdrawiam
Dlaczego do testu użyto kart właściwie referencyjnych ?
Np. Zotak AMP - GTX 280 ponoć, co wynika z testów w sieci jest około 20 stopni chłodniejszy. Są też inne niereferencyjne konstrukcje chipu 5970 np firmy Sapphire. Dziś nie kupiłbym kart opartych na referencyjnym chłodzeniu - niezależnie od ceny.
PLUSY G480
- podłaczanie wielu monitorów tylko w SLI!
Też mi plus...
Połowa tekstury nawet mniejsza połowa!
Także ATi +20% do wyników ze słupkow w testach
A recenzent nie widzi różnicy!
BENCHMARK PROSZONY O SPRAWDZENIE SPRAWY!
ZROBCIE TESTY JAKOŚCI OBRAZU ATi vs nVidia i skonczmy wkoncu z ta żenujaca firma która nabija ludzi w butelke!
Przy dawnym (lepszym) systemie ocen dałbym wam 4 (-1 z ocenę jakości obrazu) a tak mogę kliknąć tylko na tak albo na nie.
W takim razie wcale nie kliknę ;)
Nv stosuję moim zdaniem brzydkie chwyty w grach bardzo wymagających (metro, crysis)sterownik rozmywa dalsze tekstury, by podnieść wynik fps.
czyli pan autor, czyli Kamil Myzia, nie zna pojęcia "sprawność" - gratuluje.
5970 vs GTX 480 SLI.
Jeśli się bawić to tylko w taki sposób.
5970,5870,5850,GTX460,GTX480
Wtedy miałoby to rację bytu gdyby 5970 było ciekawostką w tym tescie a nie realnym wyscigiem.
Wykres temperatury w stresie. 10 st różnicy na korzyść radka,a autor jeszcze się przypieprza do wygrywającej w tym teście karty.
81st na radku Ci przeszkadza ale 91 na GFie już nie ?
1. jedna jest dwu chipowa druda jedno
2. spora różnica w cenie
3. łączy ich tylko pobór mocy.
dobry art ale nie podoba mi się dobór kart
więc nie dam oceny.
chce mieć najszybszą kartę graficzną w tym konkretnym przedziale i tyle.
2010-08-15
22:32
500W ? to godzina grania kosztuje 25groszy :)
........................
To kilowat masz za 50 groszy ?
To widać, że mamusia płaci rachunki - poproś żeby Ci dała stary rachunek, zobacz opłaty dodatkowe, a teraz weź do łapki kalkulator i policz....
.................
Mi rybka, czy ATI , czy NVidia sa na pierwszym miejscu. Kupuję to co jest w danej chwili korzystne dla mnie. Miałam i ATI i Nvidię (uczciwie powiem iż 1 ATI przypadała na 4 karty Nvidii) Ale cieszę się że jest przynajmniej dwóch producentów którzy konkurują ze sobą. Jak ktoś sądzi, że ATI, czy Nvidia nie zdarłyby ostatniego eurocenta z kupującego jakby zostały same na rynku to jest bardzo głupiutki... bardzo, bardzo..........
Teraz w PC na którym pracuję - (do grania jest drugi) chciałam kupić nowa grafikę, wystarczała mi GF240, ale ceny poszybowały na 299 zł za jako taką grafikę i kupię za 370 ATI 4850 z 1 GB.
Bo kupowanie 240 za 300 zł to dla mnie skrajna głupota. Ale jeśli 240 spadłyby nagle do ceny 220-240 zł kupię GF240.
Po prostu sama płacę i wybieram to co dla mnie jest optymalne. A znaczek producenta, ani mnie grzeje, ani ziębi.
Póki co myślę bez pana/pani z TV i wybieram towar który mi odpowiada, nie daję się zwariować, a na reklamach robię sobie herbatkę ;P
Miłego dnia wszystkim....
GTX480 to cena 1859 zl w najlepszym wypadku
5970 chodza po 2199 zl
za tem gdzie ta roznica 700 zl... nawt na komputroniku nie maja takich cen ajkie podajecie wiec z kad te informacjie.....
co do testow to oczywiscie nikt nei wie w jakich momentach gry byly one robione.... jak mozemy zatem porownac to z naszymi wlasnymi wynikami.....
coz PCLab robi duzo duzo lepsze recenzje pozdro.
Jakość tekstur faktycznie na Radeonie jest lepsza. Widać to wyraźnie na udostępnionych przeze mnie zrzutach ekranowych. Jest to niezaprzeczalny plus dla karty Radeon i ogromny minus dla GeForce.
Podczas przygotowywania wielu porównań, testów nie zauważyłem tego. Przyznaję się. Dziękuję wszystkim za wyłapanie mojego błędu.
Naniosłem stosowne poprawki w tekście.
http://techplanet.pl/index.php?gk=0&k=8&id=51318&v=zo&ord=nazwa&f=more&filtr=szukaj
ale sa na swiecie kraje takie jak wielka brytania, niemcy gdzie ludzie robia wylupiaste oczy gdy dowiaduja sie ze w komputerze ktory kupili jest procesor athlon a jego producentem nie jest intel. w takich krajach istnieje tylko marka intel.
w komputerach stacjonarnych niemal zawsze jest polaczenie intel i nvidia. tak klient nie wybiera. komputer kupuje sie gotowy a gdy gry nie chca dzialac to sie go wyrzuca na smieci. zbieraja to polacy i sprzedaja na allegro po okazyjnych cenach dajac gwarancje nawet dwuletnie. przeciez i tak im sie oplaca bo to darmowy sprzet z zachodnich smietnikow.
zapytacie wiec jakim cudem sprzedaje sie tam amd ?. przez przypadek. bo cala zgraja ludzi kupuje komputer bo ma ladna naklejke, bo ma ladne swiatelko. oni biora i nie patrza. czesc jest swiadoma zakupu (amd jest tansze o jakies 20%)
ludzie na zachodzie nie zwracaja uwagi na to ze cos kosztuje o tysiac zlotych wiecej tak jak w tym tescie. ich stac wiec kupia to co im sie bardziej podoba np z wygladu. dlatego taka relacja cen ma racje bytu. jesli ktos kupi to kupi marke a nie konkretny model. ktos kocha radeony to kupi najszybszego radka nawet jesli mialby w to miejsce 3 nvidie. ja na tego radka w tescie pracuje 50 godzin (6dni). w polsce czas pracy na radka to 360 godzin (45 dni).
tylko w biednej polsce patrzymy ze cos jest 5 euro tansze to znaczy ze jest super okazja.
dobra nie przesadzaj juz z tymi amd. Czasy smietnikow takze minely. I lepiej nie chwalic sie zarobkami bo mozesz sobie wstydu narobic.
Troche skromnosci by sie przydalo. W polsce wcale nie jest tak biednie jak ci sie wydaje. 45 dni to chyba troche przesadziles. 15 do 20 dni to sie zgodze jesli mowimy o sredniej jednak 45 dni ?? skad wziales te dane ?
Poza tym wez pod uwage ze bardzo duzo czytelnikow to mlode osoby ktore dopiero zaczynaja prace lub jeszcze sie ucza. Wiec jak jestes w szkole to skad wezmiesz 2k zlotych jesli nie masz boagatych rodzicow albo babci... nawet w UK mlodziez nie bardzo przeznaczy 500 funciakow na radka czy gforca... wiec daruj sobie swoje komentarze.
Co do testow to jedyny test to porownanie 3xgtx480 vs 2x5970, dlaczego ?
Otoz liczba procesorow graficzych w radku 5970 to 640 (3200/5), liczba procesorow graficnzych w gtx 480 to 480.
Nie ma znaczenia czy uklad ma 2 czy 10 rdzeni. liczy sie ogolnie ilosc procesorow graficzych bioracyh udzial w porownaniu.. nie jest wiec dziwne ze 5970 wypada lepiej.. Jezeli natomiast porownany 3 x gtx480 vs 2x5970 to bedziemy mieli porownanie 1440 procesorow Nvidia i 1280 ati. Wyniki sa raczej podobne zakladajac ze rdzenie i pamiec beda pracowac z podobna czestotliwoscia.
Gdybym miał teraz kupić topową kartę graficzną to wybrałbym to cacko:
http://www.ceneo.pl/2107112
Jest wydajniejsze od GTX 480 - co z tego, że nie ma DX11 - to technologia przyszłości to raz, a po drugie w AC2 nieźle sięc grało mimo DX9 ;)
1)w porównaniach poboru prądu Radeon BIJE na głowę GTX'a. Dlaczego ? Ponieważ aby gra była fair wynik Radeona powinno podzielić się przez dwa :P No a pokazanie "łakomstwa " podwójnego Fermiego wyglądałoby obłędnie :PP
2) Grafiki - czy to z rękawicami, czy to z samochodami - w tle widnieje ATI, a wiadomo iż w oczy rzuca się to, co jest na pierwszym planie ( można powiedzieć, że to szczegół, ale przecież w szczegółach tkwi diabeł :PPP)
3)W zaletach GTX'a jest napisane " obsługa wielu monitorów (tylko w SLI!) " , gdzie w przypadku kart ATI taka dogodność jest osiągana nawet przy jednym układzie graficznym. O co mi chodzi ? Ta " zaleta" brzmi tak, jakby ktoś napisał w ocenie pewnej gry " umożliwia grę w co-opie(po dokupieniu dodatkowych kopii gry!).
Pewnie podwójny Fermi zjadłby tego Radeona, no ale ciekawe, czy patrząc na obecne dane poboru prądu, rozmiarów i temperatury taka kanapka powstanie - a jęśłi powstanie to pewnie w " HiperSuper " wypasionej formie, drogiej jak diabli, która w żadnym wypadku nie będzie opłacalna...
PS: Mogę się mylić, ale ostatnio w aktualizacjach sterowników do kart graficznych czytam " wzrost wydajności w grze XXX o YY % w trybie SLI/CrossFire, co według mnie sugeruje eliminację problemów ala Crysis w przyszłości...
Jak dla mnie pewna stronniczość w artykule jest :P
(Procesor prawdopodobnie i7)
Dzięki za pomoc.
Chyba goście spuścili z tonu.