NVIDIA świadoma zagrożenia ze strony AMD, będąc na fali po premierze udanego GTXa 580, ma zamiar stworzyć dwuprocesorową kartę. GeForce GTX 59x będzie konkurował z jeszcze nie wydanym - również dwuprocesorowym - Radeonem HD 6990.
Warto przeczytać: | |
Zdjęcie nowego potwora wydajności ze stajni NVIDIA jest nieoficjalne. Przedstawia ono jeszcze nie w pełni ukńczoną konstrukcję, która ma szanse powalczyć o miano najwydajniejszej karty graficznej na rynku. Co ciekawe, brak zgodności co do nazewnictwa - według niektórych źródeł będzie to GeForce GTX 590, jednak pojawiła się także nazwa GeForce GTX 595. Jak będzie naprawdę, dowiemy się już niedługo.
Karta została wyposażona w dwa procesory graficzne NVIDIA GF110 połączone mostkiem NF200. Na laminacie znalazło się po 1536 MB pamięci GDDR5 dla każdego z układów. Co prawda na zdjęciu widać tylko 12 kości (po 128 MB), ale podobną liczbę kości skrywa prawdopodobnie rewers karty.
Na razie jeszcze nic nie wiadomo o taktowaniach karty, ale mają one być mniejsze niż w przypadku karty z pojedynczym układem GF110. Jest to spowodowane wymuszeniem mniejszego współczynnika TDP karty, który ma wynieść 375 W. Dla porównania GeForce GTX 580 z jednym procesorem graficznym może pochwalić się współczynnikiem na poziomie 244 W. Do zasilania karty wymagane będą dwie 8-pinowe wtyczki zasilające, które w połączeniu z portem PCI-Express x16 2.0 mogą dostarczyć maksymalnie 450 W energii. Warto zauważyć, że według testów na benchmark,pl, konfiguracja testowa składająca się z dwóch GTXów 580 pobiera 650 W mocy, a więc nie tak mało.
Na płytce drukowanej przewidziano miejsce na trzy wyjścia DVI oraz jedno mini DisplayPort. Dodatkowo dzięki złączu SLI będzie możliwe połączenie dwóch takich kart graficznych w jednym komputerze. Cała karta nie powinna być dłuższa niż jednoprocesorowy model, który mierzy około 27 centymetrów.
Oficjalna data premiery potwora NVIDII nie jest jeszcze znana. Jeżeli jednak producent zdecydowałby się na szybką premierę jeszcze w tym roku, to pozycja AMD i jej Radeona HD 6990 (którego data premiery jest przewidywana na pierwszy kwartał 2011 roku) może być zagrożona. Należy jednak wspomnieć, że w planach ASUSa był MARS II, czyli podwójny GTX 480, o którym na razie nic nie słychać.
Źródło: pcgameshardware.de
Polecamy artykuły: | ||
Fotogaleria: obudowa jakiej jeszcze nie było | TOP-10: Monitory | G eForce GTX 580 - najszybsza w rodzinie |
Komentarze
126W tym zdaniu
"Dla porównania GeForce GTX 580 z jednym procesorem graficznym może pochwalić się współczynnikiem na poziomie 244 W"
zjadłeś słowo średnim (powinno być przed współczynnikiem)
Dla standardu PCI-E 2.0 max współczynnik pobieranej mocy przez kartę wynosi 300W, więc skoro karta ma pobierać 375W to nie może spełniać wymogów PCI-E 2.0
Dwa błędy w jednym zdaniu - po pierwsze Wat to jednostka mocy i nie pisze się 650 W mocy, tylko po prostu 650 W,
Druga sprawa jest dużo ważniejsza, bo merytoryczna. 650 W to wartość pobierana z gniazdka, a w grę wchodzi tu sprawność zasilacza. Taka ilość nie jest zużywana przez same komponenty, tylko jest powiększona o straty na zasilaczu. Ta dodatkowa moc nie wlicza się do obciążenia zasilacza.
Dodatkowo zasilacz użyty do testów to jakieś totalne nieporozumienie - jak można w dobie 80 Plus Silver i Gold, używać zasilacz, który ma ledwie podstawowy 80 Plus? W takim razie zakładając sprawność jedynie 80 %, wychodzi 0,8*650=520[W] - i tyle pobierają elementy (takie jest obciążenie zasilacza). Na dobrym zasilaczu, jak Modu87 albo inny 80 Plus Gold, pobór tego systemu zamknie się w 600 W, także proszę tutaj nie manipulować osobami niezorientowanym w temacie, gdyż 520 W, a 650 W to ogromna różnica. Dodatkowo oczywiście trzeba uwzględnić, że komputer to nie same karty graficzne, a tego ile pobiera komputer bez kart już nie podaliście.
YoSHi84 - dobrze pisze polac mu:D
mniej wiecej 2 karty zezra góra 420W - pobór z gniazdka wzrósł o 200W - ale w grze;/ to co odpale furmarka albo jakis syntetyk i szacowania ida sie ... ?
Nvidia sie zmiesci, - aha chyba nie beda ryzykowac TDP > 375W bo tyle moze dac 2x 8pin + pcie 1.0 - a kompatybilnosc musi byc
"Dla standardu PCI-E 2.0 max współczynnik pobieranej mocy przez kartę wynosi 300W" - tyle to 3.0 ma wyciagac:D
Co do 595 - ja bym wolal GF 114 @ 900mhz :D
I spośród tych wszystkich podjazdowych komentarzy , może z 8 osób stać na te dwie topowe karty obu firm.Sie zobaczy:D
ja rozumiem 100W. No 150W. Ale 250W na procek? 650W w stresie ?
I żeby to jeszcze było okupione prawdziwym przyrostem prędkości.
A tak gracze dostaną "prawie nie zacinającą się grę hiper duper" a graficy zyskają w GPU rendering parę procent mocy więcej...
Bez sensu.
Oczywiście żeby nie było piszę o obu producentach. Mam wrażenie że takie grafiki-potwory są jak rakiety V1 lub V2; szybkie, groźne, paliwożerne, a czasami piep..ną gdzie się podoba.
Ech..
tj-malkontent?
wiec 650W przy ukkladzie SLI takich potworow to NIC :)
w dodtaku to konfiguracja z dwoma takimi gtx590 w SLI to bedzie istna bestia
Jedna karta, dwa GPU na pokladzie i automatycznie zwalnia sie jeden slot x16, ktory mozna spozytkowac znacznie lepiej (przy obecnej generacji kart VGA dla klasycznego SLI w zupelnosci wystraczaja 2 porty PCI-Ex x8) - jak np. dodatkowa karta RAID, czy SSD na PCI-Ex.
Co do 2 zlacz 8 pinow. Mam szczera nadzieje, ze ASUS pojdzie utarta droga i dolozy jeszcze jedne 6-pinow. Jaki jest sens w produkowaniu takiej karty jesli oba uklady beda pracowac w nieco "zdegradowanym" stanie ze wzgledu na nizsze zegary.
Cena bedzie prohibicyjna z pewnoscia, ale ja jestem zainteresowany bardzo. Taniej jest kupic jedna karte VGA (na nastepne 5-10 lat) i nastepny kontroler RAID niz 2 VGA i wymieniac kontroler na wiekszy.
mam nadzieje, ze pojedynczy Sandy Bridge albo Bulldozer (bez cieklego azotu) zniweluje te dysproporcje wydajnosci.
pogromy pogromców pogromców tamtych pogromców
i tak w kółko Macieju...
i tak można czekac i wstrzymywać sie z zakupem przez pół zycia
dla kogoś kto liczy każdy grosz to samonapędzajace sie perpetum mobile moze powodowac odruchy wymiotne
gonienie króliczka, którego i tak sie nie złapie
Wywalać co najmniej 3 tysiące na kartę graficzną jest chorobą.
Wole mieć tą kilkuprocentową mniejszą wydajność, ale zapłacić DUŻO mniej (mam tu na myśli karty od AMD).
A w grach tak samo płynnie jak na kartach kosztujących 1/3 ceny i pobierających może z 40% energii potrzebnej dla powyższego rozwiązania.
No chyba że ktoś widzi różnicę pomiędzy 80FPS a 180FPS...
DO tego za dwa lata będą karty z jednym GPU które będzie szybsze a pobierać będzie mniej prądu. Gry stoją w miejscu. Droga zabawa ale i tak niektórzy widzą sens kupowania takich kart.
Ja nie widzę sensu.
News ciekawy i bardzo rozrywkowy. 110 komentarzy z czego ze 20 powodują u mnie napady śmiechu :)