Po tym, jak AMD zaprezentowało pierwsze na świecie karty graficzne zgodne z DirectX 11, nVidia wydaje się być w odwrocie. Pomimo, iż Fermi nie jest jeszcze ukończone, "zieloni" nie zamierzają całkowicie oddać inicjatywy. W zanadrzu mają premierę dość ciekawej karty, której prezentacja odbędzie się dokładnie w Halloween, czyli 31 października.
Jak się okazało EVGA, z pomocą której nVidia opracowuje nowe rozwiązanie, oraz sama nVidia wysłała zaproszenia do 300 szczęśliwców, by w siedzibie "zielonych" w Santa Clara razem spędzić Halloween oraz zobaczyć nowy produkt.
Karta będzie dwuchipowym rozwiązaniem zawierającym na jednym PCB układy GTS250 oraz GTX275. Bez wątpienia będzie to pierwszy układ łączący na jednym PCB tak różne układy - w tym wypadku poczciwe G92b oraz nowe GT200b. Oczywiście jeśli znacie inne tego typu układy, to czekamy na Wasze komentarze. :)
Czy tak może wyglądać nowa karta?! Wizualizacja wykonana przez ekipę TechPowerUp!
Chip GTS250 będzie odpowiedzialny wyłącznie za obliczenia PhysX. Jednak w przypadku, gdy gra nie obsługuje PhysX lub podczas pracy "na pulpicie" aktywny będzie wyłącznie układ GTX275. To pozwoli oczywiście na oszczędności energii.
Jaka może być cena takiego rozwiązania? Póki co można jedynie spekulować, że będzie to 349 - 419$. Gdyby produkt miał tyle kosztować to cenowo sięgałby pułapu GTX285 1GB lub 2GB. Jak będzie naprawdę, o tym dowiemy się już 30 października.
Źródło: Brightsideofnews.com, Techpowerup.com
Komentarze
40Po pierwsze, zamiast GTS250 powinni RiveTNT wladowac, bedzie jeszcze wieksza oszczednosc w 2D. Po drugie, jesli cenowo dobija do GTX285, to powodzenia w sprzedazy, juz lepiej wstawic tam drugi chip 275 - skoro konstrukcja dwuprocesorowa gotowa, niech przynajmniej odswieza 295 ;-)
Nie potrafili zrobić jednego wydajnego układu i zaczęli kombinować,
Voodoo 5 6000 z czterema chipami na jednej karcie
http://images.sudhian.com/review/Voodoo5%206000/voodoo5-6000.jpg
Czyżby nVidia szła właśnie tą drogą? :) Jak to się wtedy skończyło dobrze pamiętamy.
chociaż za "pomysł" + ;]
Ale tak na serio to chyba nie taki ostatni pomysł... chyba lepszy od tego całego SLI, bo ty wszystko w jednym jest i nieco mniej prądu będzie brało... Ale ja to bym tego i tak nie kupił bo mi pojedyncza karta starcza na razie :)
Tylko tak mi się wydaje, czy to całe PhysX jest w ogóle warte zachodu... i dodatkowych nakładów finansowych. Ja się tym podniecałem jak to była nowość, że co to nie będzie, i tak sobie pograłem w parę gier z PhysX i jak mi Mirror;s Edge zaczął zwalniać dość znacząco to wyłączyłem tą opcję w cholerę i nie zauważyłem jakoś spadku jakości grafiku/efektów (tzn. parę okruszków mniej było przy rozbijaniu szyb) a gra chodziła 2x szybciej. Obecnie gram bez PhysX i nie czuję jakoś potrzeby włączania tego. I tak...
Bo miałby sens gdyby i do obliczeń i do trybu 2D byłby używany słabszy (czytaj energooszczędny GPU) i sama karta pobierała powiedzmy te 30-40 watów, a dopiero włączenie trybu 3D uruchamiałoby silniejsze GPU, wyłączając słabszy GPU. A jeśli w grze byłoby PhysX włączałby się dodatkowo słabszy GPU.
Wtedy można by powiedzieć że karta jest z gatunku przyjaznych, czy tam zielonych i pomysł jest fajny.
Mamy demona do gier i coś pod tryb 2D i nie wydajemy majątku na prąd.
Ale skoro jest jak jest to dla mnie piszczenie szczeniaczka który zagubił się w ciemnym pokoju, a nie ryk lwa.
Nvidia chyba dostała ostrego ataku paniki, lub ma swoich klientów za potencjalnych "mądrych inaczej" vel amerykanów.
Może lepiej skoro już cały świat wie że dali ciała, przeczekać ten okres w kąciku i wyjść w świetle kamer z czymś naprawdę wielkim ???
W skrócie - nV chciała zadbać o dobro jednego ze swoich najlepszych partnerów który notuje straty przez karty ATI (bo ich nie sprzedaje...).
Nie da nadzwyczajnej wydajności- będzie to zysk podobny jak w układach 2xgpu i zapewne tylko w PhysX
Tu liczy się bardziej marketing i liczby, oraz profesjonalne zastosowania.
Większość odbiorców high-end czeka i chce kupić gt300, dlatego ten układ chyba nie może podbić rynku.