Przyznam, że podczas testów miałem przez chwilę niemałe wątpliwości. Karta w jednej grze sprawowała się znakomicie, po czym w kolejnej dostawała dziwnego spowolnienia - dusząc się niejako w niewystarczającej mocy testowego CPU. Swój potencjał (choć jeszcze nie do końca) pokazała dopiero w trybie dwu- monitorowym, gdzie przepływność samego procesora stawała się dla niej nieco mniej znacząca.
Pomijając nietuzinkową długość, głośne chłodzenie w trybie 3D, czy też pobór mocy na poziomie 250W, posiada ona pewien drobny, acz dla zatwardziałego entuzjasty zauważalny mankament – zbyt małą ilość pamięci do bardzo wysokich trybów. Uwidacznia się to jednak jedynie przy jednocześnie aktywowanym trybie MultiSampling x8. Póki co będzie to jeszcze mało istotne, ale z perspektywy gier wykorzystujących znacznie obszerniejsze tekstury (nawet pomimo usprawnionych technik kompresji), może się okazać trochę bolesne.
Wersja tej karty wyposażona w 2x 2GB pamięci powinna na tym polu wypadać znacząco lepiej, dlatego osoby zwracające baczniejszą uwagę na tego typu szczegóły, powinny raczej poczekać na „pojemniejsze” modele.
Czy jednak kupując kartę tego typu, myślimy wyłącznie o niebotycznych rozdzielczościach i uaktywnianiu wszelkich upiększaczy dostępnych z panelu sterowania?
Pomijając te kilka minusów powyżej, mogę jednak stwierdzić, że Radeon HD5970 jest kartą naprawdę dobrą i zdecydowanie wartą zainteresowania. Na pewno przez osoby, które myślały o inwestycji w dwie osobne konstrukcje klasy HD5870.
Karta ma szanse stać się na kilka tygodni - a może i znacznie dłużej - liderem w klasie grafik przeznaczonych do użytku domowego. Ogromny potencjał w aplikacjach przeznaczonych na platformę ATi Stream, duża moc procesorów SP w GPGPU, także w obliczeniach o podwojonej precyzji, stawiają ją również jako potencjalną alternatywę dla specjalizowanych konstrukcji typu nVidia Tesla – biorąc rzecz jasna pod uwagę bardziej zunifikowane API typu DXCompute czy też OpenCL.
Czy warto już dziś kupować takiego potwora do gier odpalanych w rozdzielczości FullHD? Dzisiejsze gry - poza kilkoma „fizyksowymi” tytułami - nie stanowią dla niej wielkiego wyzwania, a te pisane pod DirectX 11 powinny sprawować się jeszcze lepiej.
Zamożniejsi użytkownicy jednak postawią na HD5800, bądź któregoś z GTX'ów nVidii. Entuzjaści nie będą mieć wyjścia. Mamy tylko nadzieję, że nowa karta będzie dużo lepiej dostępna od swoich 40 nanometrowych jedno- procesorowych poprzedników.
Moja ocena: Radeon HD 5970 | |||
plusy: • wydajność w środowisku Direct X 10/10.1, potencjał w DirectX 11 • niska temperatura w trybie 2D • akceptowalna temperatura podczas pracy z dwoma monitorami • niski pobór energii w trybie 2D / spoczynku • wsparcie dla DirectX 11 / DirectCompute 11 • ATi STREAM, OpenCL (Havok, Bullet, Pixelux) • AVIVO HD / Enhanced UVD2 • Eyefinity, DisplayPort • konkurencyjna cena względem dwóch HD5870 spiętych w CrossFire • nie wymaga płyty obsługującej CrossFire (vide 2x HD5870) | |||
minusy: • głośność w trybie 3D, niewielki ale słyszalny szum w 2D • pobór mocy pod obciążeniem • skalowalność wydajności z mocą CPU taktowanego blisko 4GHz zegarem • długość PCB i chłodzenia • za mało pamięci do rozdzielczości powyżej 3840x1200 z uaktywnionym AA-x8 ;) • cena | |||
Orientacyjna cena w dniu publikacji testu: do 2100 zł | |||
Komentarze
109i wcale tak dużo prądu nie pobiera jak na takiego potwora :)
no to może czas na zmianę platformy testowej ???
A recenzja spoko miło się czytało ;]
Więc jednak ATi pierwsze.
A sama karta? I tak jej nie kupię:P I bynajmniej nie chodzi ocenę, lecz o pobór prądu i fakt, iż jest to multi GPU :P
1. Czy ta gra pobiła serię CRYSIS (obie odsłony), to ja bym oponował. Jak sie wydaje ponad 2 tys. zł. za kartę graficzną, to nalezałoby oczekiwać, że gry mające ponad rok lub dwa powinny bez trudu chodzić na maxa, tzn. nie tylko rozdzielczość ale i dodatki, jak anty aliasing czy filtrowanie anizotropowe, DX 10.
Tak, wiem że te gry są źle zoptymalizowane, chociaż biorąc pod uwagę ich wizualną jakość, jest to częściowo uzasadnione, ale co z tego jak i tak nie są to jesyne źle zoptymalizowane gry na rynku i za pare miesiecy z pewnością wyjdą następne które jeszcze bardziej niż te będą usidlać kartę graficzną.
Poza tym, ilość klatek na sekunde to przy takich kartach powinno się liczyć dla danej gry następująco - jak spada poniżej 60, to coś już jest zgrzyt. A zobaczcie jakie tam są wielkiści fps.
Eyefinity, która to ma być tak wielką zaletą jest ściemą. Co z tego że sobie moge podłączyć kilka monitorów. Pytanie kluczowe, to w co pogram na rozdziałce będącej kilkukrotnością następującej - 1920*1080. Na pewno nie w Crysisa. Więc może w mmo, te gry jak wiadomo świetnie wyglądają na wielu monitorach! A może jeszcze w tetrisa?
Ja panowie rozuniem, że ta karta jest ciekawa pod wieloma względami, ale trochę dystansu! Ciekaw jestem jak będzie wyglądać następna wersja tej gry na konsolach. Oj żeby sie nie okazało, że zrobią ją pok konsole, zrobią następnie parta na pc i znowu na jeszcze lepszych kartach pójdzie gorzej niż na ps3 cz xbox. Pozdrow.
"Zaawansowani overclockerzy za to, nie powinni mieć z nią najmniejszych problemów."
Nie powinno być przecinka po "to".
Przepraszam za upierdliwość :P
ale sporo starszych kart jest na sterownikach sprzed ponad pół roku!! Jak się przysłowiowo "walnęliście się" to jeszcze ok, ale jak to ma być wasze porównanie to czymś takim można sobie dupę podetrzeć, bo to żadne porównanie.
Karta KOSMOS !
Mam jednak nadzieję, na odświeżenie testu jak już zaopatrzycie się w mocnego i7 z odpowiednim OC, lub przynajmniej mocno pogonionego PII. Bardzo jestem ciekaw różnic w wynikach a coś mi mówi, że będą spore.
http://en.wikipedia.org/wiki/ASCI_White
http://en.wikipedia.org/wiki/TOP500#The_systems_ranked_.231_since_1993
(koszt ponad 100 mln usd, waga ponad 100 ton, zużycie energii 6MW)
Niestety cały świat narzeka na Ati i to, jak TSMC dało ciała ze złą kalibracją urządzeń w fabryczce. Na overclockers.co.uk są już listy preorderowe i ludzie dyskutują na forum na którym są miejscu :D
Żeby nie było...nie jestem fanboy'em ati - mam "275" :)
dzis z rana o 0200 byl a teraz juz nie !!!!>>>>>>????????
hej
Radeon na i7 osiągał średnio jakieś 7 klatek więcej.
Ogólnie mam wrażenie, że postęp w gpu wyprzedził desktopowe cpu, i nawet I7 nie jest w stanie dostarczyć dostatecznie dużo mocy by karty takie jak 5970 czy Fermi mogły pokazać prawdziwe możliwości.
to ja sie loguje, pisze 1500 znakow nieco z sensem i co..., teoria spiskowa znowu,,, gram w gre txt - jest zarabiasta, wciaga tak samo jak Fallout i jest ok:)
teraz krotko:
I po co to komu, wiecej pkt w 3dmarku, a mniej w grze,
konsola nie przycina: na pc to juz przerabialismy pare lat temu, ale gracze byli oburzeni tym rozwiazaniem, zjedli z koscmi producenta, "NIE POZWOLIMY na to..." wiec idziemy we wlascimym kierunku !!!!, wiec prosze nie narzekac ze komp jest drogi do grania i sa mini, mikro, piko przyciecia.!
Sterowniki potrafia rozwiazac problem - chwilowe obnizenie jakosci obrazu i juz, konsola tak robi i nic sie nie przycina..... hehehehehehhe.
Podniecajmy sie poki mozemy za miesiac bedzie np:Ati 5980, i bedzie nowy record, a jak zdaza przyklejc naklejke Fermi na Tesle to bedzie NV na topie ;)), hehehe
TO byl optymistyczny akcent ;P
ALOHA
na intel x79 PCE-E 3.0 na ustawieniach domyslnych 3DMark Vantaga GPU score 30258 ;) a na Intel x48 PCE-E 2.0 25906