Na podstawie zebranych do tej pory informacji, na temat nadchodzących kart graficznych nVidia GT300, seriws Bright Side of News opublikował specyfikację techniczą, jaką prawdopodobnie charakteryzować się będą nowe karty.
- liczba tranzystorów powyżej 3 miliardów
- procesor graficzny wykonany w 40 nm procesie technologicznym
- 384-bitowy kontroler pamięci
- 512 procesorów strumieniowych (przemianowane na CUDA Cores)
- 32 CUDA Cores na jeden klaster Shader
- 1 MB pamięci podręcznej L1 oraz 768 KB L2
- do 6 GB pamięci GDDR5. Dla zwykłych użytkowników możemy się spodziewać kart z pamięcią 1.5 GB GDDR5.
- Half Speed IEEE 754 Double Precision
- natywna obsługa przez GPU - C (CUDA), C++, Fortran
- wsparcie dla DirectCompute 11, DirectX 11, OpenGL 3.1 i OpenCL
źródło: Bright Side Of News
Komentarze
77Według mnie GT300/GT100
Będzie mógł mieć takie parametry.
227% 3178MLN Tranzystorów
148% 695,6mm2 Powierzchnia rdzenia (zdeczka duża więc będzie i grzało nie źle^^)
117% 238,68W
900 miliardow tranzystorow to ma HD4890/GTX285
Ponad 2BLN ma 58x0.... Co to za bzdety.
a to tylko "na zebranych do tad informacjach" hmm no ale niezle niezle, bedzie sie dzialo ;P
Chyba ktoś tu się za bardzo zagalopował. Raczej powyżej 3 milionów. Radzę podszkolić się z języka angielskiego.
Przepustowość będzie bardzo duża.
W połączeniu z 40nm będzie to mocna karta.
Ale patrząc na znikomy przyrost fps jaki był w Crysis w kartach
Radeon pomiędzy 4870 a 5870 w najsłabszych ustawieniach w benchmark- tylko 8-10fps - nie mówiąc o różnicy z 4890 który jest identycznie taktowany w gpu jak 5870 (5 fps) to należy się zastanowić jak niewiele
większą płynność daje karta dwa razy bardziej rozbudowana- czy to nie dziwne?
Dziwniejsze jest to że identyczną, albo bardzo podobną płynność uzyskujemy w 4890 toxic- jak w 5870 w Crysis
Samą rozbudową gpu nie zwiększymy mocno fps, do tego trzeba większej częstotliwości - zwłaszcza gdy się przekroczy pewną granice w ilości SP, potok, tekstur bo gra już tego nie wykorzystuje- do obliczeń wystarczy mniej .
Dlatego rewelacji nie ma się co spodziewać,- potrzebne są taktowania
na poziomie przynajmniej 1000-1200mhz
Pozdr
ATI poszła najprostszą linią oporu, wzięli to co mieli, pomnożyli x2 poprawili to i tamto i mają gotowy produkt z którego wszyscy są zadowoleni. NV popdadła w jakaś gigantomanie, chcą stworzyć karte obliczeniową do wszystkiego a nie kartę graficzną i to może im sie bardzo nieprzyjemnie odbić.
O ile dobrze pamiętam w czasach radka 8500 i gf3 , matrox prehelia miał być taką inowacją, miał być w pełni programowalną kartą, coś na styl współczesnych shaderów. I co i klapa, przegrała konkurencję z brutalną siłą MHz i ilością potoków przetwarzania któe zaprezentowały przyszłe karty NV i ATI ;)
A sądząc po kontrolerze pamięci (384) to zapowiada się prawdziwy następca G80;-)
Do autorów, proponuję zweryfikować tego niusa
Nie ma co się napalać, bo co niektórzy mogą się rozczarować, albo szczęśliwie zaskoczyć - Wszystko będzie jasne jak nVidia oficjalnie zaprezentuję specyfikację. Mało tego: specyfikacja to jedno, a testy dopiero zweryfikują na co stać nowy układ. Do tego momentu nie zostaje nam nic więcej jak cierpliwie czekać.
3 biliony tranzystowów, ta:D, a w najbliższą kumulację w totka wygrają wszyscy, którzy w niego zagrają;)
Niektórym lamerom, powinni zabronic pisać news'y, bo nie wiadomo czy się śmiac, czy płakać. Przy pisaniu news'ów trzeba także myśleć, a nie bezmyślnie przepisywać, jakoś konkurencja wykazała posiadanie zdrowego rozsądku i nie umieśliła wyssanej z palca liczby 3 bilionów. Moze autor newsa jest zapalonym graczem w dużego lotka i pisząc newsa pomylił się z suma kumulacji w totka, jaka mu się poprzedniej nocy przyśniła:D
1. http://www.in4.pl/komentarze_NVIDIA_Fermi_-_już_oficjalnie_o_architekturze_nowego_GPU,19475.htm
2.http://nvision.pl/news-ext-14784.html
P.s.
Teraz już wiem, dlaczego nadal czytam posty niektórych userów benchmarka:D Potrafią one nieźle poprawić humor, zwłaszcza przy dzisiejszej pogodzie;)
bilion w US/UK to miliard u nas.
wiec jesli napisal 3 biliony tranzystorow.... to chodzilo oczywiscie o 3 milaiardy.
Wiec w czym problem, ktos tylko nie przetlumaczyl dokladnie tekstu. :)
BTW, boje się ze przecieki o gt 300 są kontrolowane i maja służyć podgrzaniu atmosfery przed premierą, a prawdziwa specyfikacja będzie się znacznie różnić od tych "newsowych rewelacji".
Tak czy inaczej nVidia potrzebuje nowej technologi, którą da się rozwijać i sprzedawać przez kilka najbliższych lat, bo gt 200 wydaje się być już maksymalnie wyeksploatowanym i niereformowalnym.
Osobiste, chociaż mam straszna chrapkę na HD5870(!), to wstrzymuje się na razie z kupnem nowej karty do czasu premiery gt 300. Jeżeli okaże się ze ta gt 300 będzie 2 razy wydajniejsze niż HD5870, przy cenie nieprzekraczającej dwukrotnosci ceny Radeona to wezmę nowego GeForce'a pod uwagę. pozdro
nVidia specjalnie, zwlekała, żeby dać się nacieszyć i nachwalić, czego to nie dokonali, panom z AMD. A teraz pokazała co potrafi.
Niestety jak to bywa, karty AMD, tyćkę gorsze, ale i tańsze od "Zielonej Siły"...
Jak wiele można zrobić, aby przyćmić ważne wydarzenie u konkurencji? Cóż, jeżeli chodzi o niedawną premierę kart graficznych ATI Radeon HD 5800 i NVIDIĘ, to można zrobić konferencję, zaprezentować własną, nową generację procesorów grafiki i... pokazać atrapę.Serwisy Singapore HardwareZone i PCPop jednocześnie zwróciły uwagę na kilka elementów zaprezentowanej przez szefa NVIDII karty graficznej oznaczonej jako "Tesla", które pozwalają postawić taki wniosek.
Jeżeli dokładnie przyjrzymy się, zwłaszcza rewersowi karty, to znajdziemy tam dziwne cechy. Po pierwsze karta wydaje się nienaturalnie kończyć - jej wewnętrzny kraniec jest wyraźnie odcięty, na co wskazuje na przykład pozostawienie tylko dwóch złączy dla gniazda dodatkowego zasilania.
Dodatko, jeżeli spojrzymy na gniazdo 6-pinowe (u góry), to widać wyraźnie, że na rewersie karty nie ma śladów po jego przylutowaniu (ani zaczepieniu) do płytki PCB. Podobnie jest z 8-pinowym gniazdem z boku. Wygląda na jedynie przyklejony, bo do płytki jego złącza przylutowane nie są.
W płytce wykonano też otwory wentylacyjne, ale jeśli się dobrze przyjrzeć to można zauważyć, że są zakryte.
Wygląda więc na to, że Jen-Hsun Huang podczas prezentacji trzymał "zabawkę", w dodatku nienajlepiej opracowaną, tylko na potrzeby pochwalenia się niby kartą graficzną, która działa.
Wszystko to może oznaczać, że NVIDIA wciąż nie ma działającego prototypu kart graficznych nowej generacji.
Teraz już wi
wracajac do tematu jezeli nvidia zrobi karte ktora na jednym rdzeniu bedzie na rowni z obecnymi 2 rdzeniowymi kartami lub 2 w sli z highend to bedzie bardzo dobrze.
amd takie cos sie udalo (5870 ma podobna wydajnosc jak 4870 x2), teraz trzeba poczekac na odpowiedz nvidii.