2x wydajniejsza od GTX 580
W sieci pojawiły się pierwsze, nieoficjalne wyniki wydajności karty graficznej Nvidia GeForce GTX 780. Model ten ma oferować ponad dwa razy większą wydajność od obecnego GeForce GTX 580.
Pomimo faktu, iż w ostatnich dniach pojawia się dużo obiecujących informacji o kartach graficznych AMD Radeon HD 7000, to Nvidia nie ma zamiaru odpuszczać głównemu konkurentowi. Już w przyszłym kwartale mają pojawić się pierwsze konstrukcje z nowoczesnym, 28-nanometrowym układem graficznym Kepler GK104. Najprawdopodobniej niedługo później gigant z Santa Clara wyda karty graficzne z flagowym procesorem Kepler GK100. Co zaoferuje konstrukcja z najwydajniejszym GPU firmy Nvidia?
Poniekąd na to pytanie odpowiada nieoficjalny slajd z wynikami wydajności karty graficznej GeForce GTX 780. Warto zaznaczyć, że informacje te są nieoficjalne i nie należy im do końca wierzyć. Dlaczego GTX 780, a nie GTX 680? Do końca nie wiadomo, ale możliwości jest parę.
Pierwszy scenariusz mówi o porzuceniu serii 600 (podobnie jak w przypadku GeForce 300) i przejście od razu do GeForce 700. Drugi, bardziej prawdopodobny, zakłada wydanie kart graficznych z serii 600, ale najwydajniejsza z nich (GeForce GTX 680) wykorzystywać będzie układ Kepler GK104, natomiast najwydajniejszą karta z kolejnej serii będzie mieć procesor Kepler GK100.
Model | GeForce GTX 580 | GeForce GTX 780 |
Seria | Fermi | Kepler |
Układ graficzny | GF110 | GK100 |
Taktowanie układu graficznego | 772 MHz | ? |
Procesory strumieniowe | 512 | 1024 |
Jednostki teksturujące | 64 | 128 |
Jednostki ROP | 48 | 64 |
Pamięć wideo | GDDR5 | GDDR5 |
Ilość pamięci wideo | 1,5 GB | ? |
Magistrala pamięci wideo | 384-bit | 512-bit |
Taktowanie pamięci wideo | 4008 MHz | ? |
Testy wydajności karty GeForce GTX 780 przeprowadzono w siedmiu grach i jednym benchmarku, a porównano ją z modelem GeForce GTX 580. Na uwagę zasługuje fakt, iż testy przeprowadzono w rozdzielczości 2560x1600 pikseli pod kontrolą systemu operacyjnego Windows 7 64 bit i sterowników graficznych z serii 297, a na platformę testową składał między innymi się procesor Intel Core i7 3960X.
W każdym teście GeForce GTX 780 oferuje zdecydowanie większą wydajność od modelu GeForce GTX 580. W zależności od tytułu przewaga sięga od 70% (w grze Batman Arkham City) do 130% (w grze Crysis 2).
Więcej o kartach graficznych Nvidia GeForce 600:
- Nvidia GeForce 600: specyfikacja kart graficznych
- Nvidia GeForce 600M: oficjalna prezentacja układów
- Nvidia GeForce GTX 600: plan wydawniczy kart z układami Kepler
- NVIDIA GeForce 600M - specyfikacje mobilnych układów graficznych
Źródło: WCCFTech
Komentarze
213Zaznaczam, że mi karta graficzna służy w sumie tylko do gier.
Słupki wydajności jakie nam serwuje nVidia przed premierą kolejnych układów należy od razu spalić i zakopać ;)
Dane są imponujące, 2x wydajniejszy od GTX580. Jeśli się to okaże prawdą to mamy niezła rewolucje na rynku GPU. Oby tylko pobór prądu nie podskoczył o 2x, bo jakoś mi się słabo widzi taki GTX780 z 3 wtyczkami 8 pinowymi;)
Niestety w kraju w którym prąd zaczyna się robić dobrem luksusowym (pośrednio w innych krajach UE też ale tylko w PL panuje takie ubóstwo a od nowego roku będą ZNOWU nowe stawki za prąd) kupowanie kompa do gier który oprócz jednorazowego zakupu pozbawi nas sporej gotówki to jeszcze później będzie miesiąc w miesiąc wysysał SPORĄ kasę z budżetu jest głupotą. Te karty są kierowane do naprawdę zamożnej grupy graczy. Wolę chyba ATI która w spoczynku będzie konsumować trzy waty prądu i będzie z półki cenowej ~700zł bo i tak zagram we wszystko w detalach high/med.
AMD Radeon 6950 vs. nVidia GeForce GTX 560 Ti – 33W na korzyść AMD.
Przyjmujemy, że gramy 8h dziennie (czyli karta przez 8h pobiera maksymalną ilość prądu co też prawdą nie jest ale jakieś ramy musimy narzucić).
8h * 30dni * 12miesięcy = 2880h * 0,033kW = 95,04kWh/rok
Co przy na przykładzie RWE Stoen daje (korzystając z tego kalkulatora http://ure.gov.pl/ftp/ure-kalkulator/ure/formularz_kalkulator_html.php) roczną płatność 118.93.
Należy pamiętać, że w tej cenie zawarty jest również abonament, koszty dostarczenia energii itp. (niektóre z nich płacimy, i tak korzystając z innych urządzeń).
Czyli:
118 / 12 = 9,8 zł na miesiąc… rzeczywiście kolosalna różnica.
Nowe Radeony mają ciągnąć 300W!!!
No większość nie wie co to oszczędność,bo za prąd nie płaci,
-tylko ich starsi czyli rodzice, a takie pisanie że GTX 560Ti jest na równi z Radkiem 6950 -jeśli chodzi o pobór WAT jest nie fer!!! w stosunku do wypowiadających się tu młodszych ludzi, po co wciskać im tę głupotę -tyle w temacie
A co do wspomnianego wyżej PhysX, jest to przestarzały dodatek kupiony z 6 lat temu przez Nvidie i umieszczeny od tamtego czasu wyłącznie na niej. A jest to tylko jeden głupi sterownik... . To jest polityka zielonych, nie kupisz naszego sprzętu to tego nie dostaniesz, dlatego producentom gier się to nie spodobało i wybrali alternatywe HAVOC, która troszke gorzej chodzi na NVIDI (ze względu na tylko obciążający procesor PhysX). Ale to tylko moje zdanie..
NIE JESTEM FANBOY`EM!!!
A nazwy pewnie zmienili, bo nijak ''koligowały'' by z HD 7000 - GTX 700 brzmi od razu lepiej od GTX 600 ;-)
Ach, cała nVidia (-:
Po co w ogole umieszczacie plotki tego typu? przeciez wiaomo ze 99% tego czegos to sciema i fantazja jakiegos malolata. Chbya ze traktujecie to w formie humoru, chociaz sadzac po opisie - nie.
Przez ostatnie lata było tak że gry na max detalach śmigały na styk na najlepszych kartach,teraz wszystko się odwraca i ciężko będzie znalezć tytuł który obciąży kartę w 100%.
-tylko ich starsi czyli rodzice, a takie pisanie że GTX 560Ti jest na równi z Radkiem 6950 -jeśli chodzi o pobór WAT jest nie fer!!! w stosunku do wypowiadających się tu młodszych ludzi, po co wciskać im nie głupote -tyle w temacie
Mimo wszystko i tak trzeba będzie czekać na oficjalną premierę żeby oceniać przyszłe karty Nvidii.
Testy:
http://www.techpowerup.com/reviews/Powercolor/HD_6870_X2/17.html
Jeśli komuś szkoda to niech nie gra na full ^^
Natomiast z dotychczasowych przecieków wynikało że Kepler to ma być udoskonalony Fermi przeniesiony do procesu 28nm.
Jeśli to drugie będzie prawdą to szczerze wątpię w tak duży przyrost wydajności. Bardziej spodziewam się różnicy podobnej do przejścia między serią HD4xxx a HD5xxx. tam też mieliśmy wszystkiego x2 i przejście na 40nm:
http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/30.html
Osobiście uważam, że Kepler będzie właśnie ewolucją a nie rewolucją w stosunku do Fermi(tak jak HD4xxx->HD5xxx). Stąd moje wątpliwości co do tak dużego wzrostu wydajności w stosunku do poprzednika.
I zanim zakopiecie, że niby 'fanboj", albo ten, co kupuje "niepotrzebne wymysły"... lubię grać w 3D. Sam zarabiam na komp i na rachunki za prąd. Chcę grać w 3D, t to jest mój wybór i za moje pieniądze i wam nic do tego :)
Wracając do wydajności - również jest to całkiem możliwe. GK100 to praktycznie 2x większy układ, niższy wymiar produkcji pozwoli zapewne na osiągnięcie nieco wyższych zegarów, do tego nowa architektura Kepler i dopracowane sterowniki, które również mogą dać nawet kilkanaście procent do wydajności (tak jak to było ze sterownikami Forceware 256). To pewnie będzie potwór pokroju GTX480, ale patrząc na nieoficjalne testy wydajności to będzie mógł z nim Radeon HD7990, a i tak nie wiem czy AMD podoła tej konkurencji.
Jeszcze jedna sprawa - ponoć najpierw wypuszczone miały być słabsze karty typu np. GTX760, GTS750, a dopiero później oczekiwany GTX780 (i IMO jest to dobra decyzja, bo nie będą musieli się męczyć z niskim uzyskiem tak jak to było z Fermim, a po dopracowaniu procesu będą mogli sobie pozwolić na takiego potwora). Także na początku będzie dominować HD7990, potem GTX780, potem HD8990 itd., więc równowaga zostanie zachowana ;)
Wykresy bylyby prawdziwe gdyby karta graficzna miala 3 razy wiecej ramu i z tego powodu obslugiwala jakas hiperrozdzielczosc w tych grach. 580 po prostu by sie dlawila na tych rozdzielczosciach ze wzgledu na mala ilosc ramu.
I tak jakby na benchmark.pl ukazała się sonda którą firmę bardziej cenisz NVIDIA czy AMD w kwestii GPU, to ciekawe kto by wygrał ?
Ostatnio znajomy który ma w kompie zamontowanego Radeona miał problemy z odpaleniem Rage. Jak nie pojawiały się czarne trójkąty, to czarne kwadraty i taka zabawa....
U mnie nie było żadnych problemów, bo ja mam zamontowane GPU takie zielone, ohydne, na dodatek mam efekty PhysX przy których włączeniu jest ryzyko uszkodzenia kompa, a i jeszcze moje duzo prądu i jest głośne.
Dlatego chyba lepiej kupić Radeona, przecież te zabawy z normalnym graniem (patrz błędy w wyświetlaniu obrazu ) to jest taka atrakcja, przedsmak prawdziwej zabawy.
W ogóle Radeony są tanie, zimne jak lód i bardzo opłacalne, bardzo energooszczędne. A i jeszcze mają wysoką wydajność, zwłaszcza w grach wykorzystujących teselację. Mają doskonałe sterowniki.
O czymś zapomniałem ?
Od razu muszę kupić zestaw PlayStation 3 i XboX360 razem z Uncharted !
Zrobię interes życia !
Ta wydajność wymiecie świat kart w posagi
AMD wg.specyfikacji ilość jednostek strumieniowych zwiększyła o 1/3 czyli ogólna wydajność względem starej serii wzrosła o 30%.
Ale patrząc na ilość tranzystorów która wzrosła prawie dwukrotnie to patrząc na wyniki testów mocno poprawili teslacje.
Oby nie była do końca prawdziwa specyfikacja kart NV bo może to być mocny cios dla już dość mocno pobitego AMD pod względem CPU.
nie ma dwóch zdań to będzie sprzęt na pełnym wypasie
Ze specyfikacji wynika, że przy idealnym skalowaniu wydajność może być max 50% wyższa, przy założeniu, że taktowanie będzie identyczne (wąskim gardłem byłaby pamięć i jednostki ROP).
No chyba że Nvidia pójdzie po bandzie i znowu podniesie TDP - co umożliwi wyraźnie wyższe taktowanie.
Na pc dalej nie ma w co grac. Gry na szynach i strzelanki dla ludzi o iq 100
pozdrawiam
A dla speców od marketingu nv "wielkie" brawa, wiadomo że ładniej wygląda "2x większa wydajność" niż niepotrzebne 200 fps zamiast 100 :D