W sieci pojawiła się specyfikacja dwuprocesorowej karty GeForce GTX 590, która będzie swojego rodzaju połączeniem dwóch GTX-ów 580. Karta ma trafić do sklepów w lutym bieżącego roku.
Dwyprocesorowy GeForce bazujący na drugiej generacji układach Fermi, zagościł już niejednokrotnie na łamy benchmarka. Wspominaliśmy o wyglądzie prototypowej płytki drukowanej karty oraz o prototypie gotowej konstrukcji firmy EVGA. Niestety dotąd niewiadomą była specyfikacja „monstrum od NVIDII”, a także jakie procesory zostaną ostatecznie wykorzystane.
Warto przeczytać: | |
CES: dwuprocesorowy GeForce GTX 59x ? | |
NVIDIA szykuje pogromcę Radeona HD 6990 |
Oczekiwanie dobiegło końca. Dzięki informacjom uzyskanym przez serwis NordicHardware możemy podzielić się z wami pierwszymi danymi technicznymi na temat karty GeForce GTX 590, nowej flagowej konstrukcji NVIDII. Według informacji, karta będzie wykorzystywała dwa procesory GF110, które znamy z kart GTX 580. Pojedynczy układ GPU dysponuje 512 rdzeniami CUDA, 64 jednostkami teksturującymi oraz 48 jednostkami rasteryzującymi. Dla każdego z procesorów graficznych przeznaczono 1536 MB pamięci GDDR5 o 384-bitowej magistrali.
Mówiąc inaczej, najwydajniejsza karta NVIDII, będzie niczym innym, jak połączeniem dwóch najwydajniejszych w ofercie firmy kart jednoprocesorowych. Zagadką pozostaje pobór energii przez nową konstrukcję, ale prawdopodobnie producent zdecyduje się na obniżenie zegarów 590-tki w stosunku do pojedynczego GTXa 580 (którego pobór energii wynosi 244 W). Według zapowiedzi karta będzie chłodzona jednym 90 mm wentylatorem, który zostanie umieszczony na środku laminatu – podobnie jak w miało to miejsce w GeForce GTX 295 opartym o jedną płytkę drukowaną.
Model | GeForce GTX 590 | GeForce GTX 580 |
Technologia wykonania | 40 nm | 40 nm |
Liczba tranzystorów w układzie/-dach | 6 miliardów | 3 miliardy |
Ilość shaderów | 1024 | 512 |
Jednostki teksturujące | 128 | 64 |
Jednostki rasteryzujące | 96 | 48 |
Typ pamięci | GDDR5 | GDDR5 |
Ilość pamięci | 3072 MB | 1536 MB |
Magistrala pamięci | 2 x 384 bit | 384 bit |
Pobór energii | brak danych | 244 W |
Premiera GeForce'a GTX 590 ma nastąpić już w lutym, a więc mniej więcej w tym samym okresie co Radeona HD 6990. Która z kart okaże się wydajniejsza, a która bardziej opłacalna? Tego nie wiemy, ale zapewne już za jakiś czas w sieci zaczną pojawiać się pierwsze wyniki wydajności obu konstrukcji. Pewne jest natomiast to, że obie konstrukcje nie będą skierowane dla zwykłego zjadacza chleba, a dla entuzjastów oraz overclockerów.
Źródło: nordichardware.com
Polecamy artykuły: | ||
Produkt Roku 2010/2011 - wybór czytelników | Easter Eggs, czyli jaja w grach | Testy laptopów: 20 modeli na każdą kieszeń |
Komentarze
127Brakuje słowa "czas".
Poprawić ;)
WoooooooW!
łoooooooo!
yeeeaaaah!
uuuuaaaaa!
nVIDIA > AMD
:lol:
Ciekawe co z tego będzie. Najbardziej ciekawi mnie nie tyle wydajność, bo testy SLI GTX580 są, ale właśnie pobór mocy, temperatury, samo chłodzenie, jego głośność.
CO lepsze? RADEON!!!
GTX 580 > HD 6970 => gtx 590 >> HD 6990
(myślę, że znak ">>" - znacznie większy [lepszy] jest tutaj jak najbardziej na miejscu)
Co do GTX 590 i HD 6990, tutaj moim zdaniem nie ma sensu wróżyć co będzie lepsze,a co będzie cichsze etc. Tu nie o to chodzi, te karty w większości przypadków stanowić będą podstawę do jakichś specjalnych zastosowań PC'ta.
Np. GTX 590 -> rdzenie CUDA w różnego rodzaju obliczeniach je wykorzystujących
HD 6990 -> Eyefinity
I chyba jasne że ktoś kto będzię konfigurował kilka monitorów(np. 3x1 fHD -> 5760x1080) weźmie Radeon'a, nie patrząc na wydajność konkurenta.
I na odwrót ktoś korzystający z CUDA z pewnością weźmie GeForce'a.
Pozdro
Co do GTX 590 i HD 6990, tutaj moim zdaniem nie ma sensu wróżyć co będzie lepsze,a co będzie cichsze etc. Tu nie o to chodzi, te karty w większości przypadków stanowić będą podstawę do jakichś specjalnych zastosowań PC'ta.
Np. GTX 590 -> rdzenie CUDA w różnego rodzaju obliczeniach je wykorzystujących
HD 6990 -> Eyefinity
I chyba jasne że ktoś kto będzię konfigurował kilka monitorów(np. 3x1 fHD -> 5760x1080) weźmie Radeon'a, nie patrząc na wydajność konkurenta.
I na odwrót ktoś korzystający z CUDA z pewnością weźmie GeForce'a.
Pozdro
"karta będzie chłodzona jednym 90 mm wentylatorem, który zostanie umieszczony na środku laminatu"
I tak producenci dołożą co najmniej jeden
Widze, że pojęcie sarkazm jest Ci obce.
A tak poważnie mówiąc to HD6990 nie ma prawa być wydajniejsze biorąc pod uwagę to, że może być conajmniej dwoma HD6970, które są sporo słabsze od GTX 580, konkuruje ona (6970) wręcz bardziej z GTX 570, dodatkowo lepsze spisywanie się SLi, niż CF (z tego co mi wiadomo) no i AMD będzie miało prawdę mówiąc słabszą pod względem wydajności kartę, a obecnie układy AMD i nV są b. konkurencyjne pod względem ciepła i podkręcalności z przewagą dla GeForce'ów wręcz...
:]
I to chyba by było na tyle. :D
Oj od razu wszyscy skreslacie amd, nie zapominajcie ze nvidia bedzie musiala zjechac z zegarami i napieciem odrobine, a amd zeby miec ten sam tdp nie musi tego robic w tak duzym stopniu i tu moze troche zyskac na wydajnosci.
Co do ceny to nie ma co spekulowac wiadomo ze bedzie wysoka, do 3k dobije i co z tego? - kto ma kupic to kupi kto nie to bedzie sobie czytal recki i " " (wstawcie co chcecie :D)
ja chetnie wymienilbym 460 na 560 i juz mial konkretny spokoj, tyle ze po co skoro nie ma w co grac :D,
Ja proponuje poczytac o Unlimited Detail - fajna technologia gdyby ja wykorzystac a moze i uzyc CUDA do tego to rozwoj kart bylby w sumie nie potrzebny..
Wogole ja nie wiem po co robia nowe karty, skoro wszystko na starych chodzilo by jak nalezy gdyby programistom sie chialo troche zoptymalizowac kod.. - kasa goni kase..
OMG LOL LOL OMG.
ale fanboy'e i tak wola obrzucac siebie blotem.
Tak można ciągnąć to w nieskończoność...
I tak większości z Was nie będzie stać na zakup kart od 590 i 6990 więc o co ta cała "gruszka"???
Oj dzieciaki, dzieciaki...
2x Asus GTX580 = 3998zł.
A umieszczenie tego na jednym PCB to jest uciecha dla:
Dostawcy prądu - Dużo prądu = Dużo $$$
Nvidi - Na pewno znajdą się nabywcy tych że kart
Gracza - SZPAN przed kolegami "Mam GTX590, twoje GTX470 jest śmieszne"
śmieszne? mój kolega musiał sprzedać 2x GTX480 bo nie wyrabiał za prąd, rachunki skoczyły dośc ostro (chyba 100zł, nałogowy gracz)
Szczególnie gdy sama karta będzie pobierac ok. 500W to powiedzcie, czy ktoś normalny to kupi?
Kolejny raz powtarzam:
Kogo stać na takie karty, tego stać na rachunki za prąd.
Troche przesadziłem, Radek będzie kosztował więcej, bo HD5970 to 2x HD5850 na jednym PCB, a 5850 ile kosztuje? Średnio 770zł x2 = 1540zł, a HD5970 kosztuje ponad 2000zł.Więc oto odp.
AMD walczy ceną, ale najprawdopodobniej Radek wygra.Dlaczego?
ATi lepiej się skaluje i współpracuje z dwoma kartami.Gdzieś była o tym recenzja.Ale to poszukacjie na:
guru3d.com
za 3998zł (jak mówi IntervenseI) można złożyc naprawdę fajny zestaw, który pod obciążeniem bedzie pobierał niewiele prądu więcej, a przy tym pogramy w każdą gierke...
Karta chyba dla "innych" fanatyków gier
mogli by skorzystać z tech. 32nm i po problemie.
karta będzie pracowała trybie sli czyli dwie karty jak już to znamy na przykładzie 295 gtxa
Przesiadka z laptopa na puche ( gtx 480, i7 ) skutkowala u mnie podniesieniem rachunku o 8zl / miech. Powtarzam : Nie zmiana karty , tlko dodanie calego DODATKOWEGO kompa.
Wiec podejrzewam ze waszych starych jeszcze stac na dodatkowa zlotowke czy 2 przy zmianie samej karty.
Czekamy na testy...