Dlaczego potężna NVIDIA, której pozycja wydawała się być przez ostatnie lata niezagrożona, oddała koronę wydajności firmie ATI? Jedna z teorii mówi o tym, że zawiniło nadmierne zaangażowanie koncernu z Santa Clara w technologię CUDA.
Przypomnijmy, że CUDA pozwala na uruchamianie specjalnie przygotowanych aplikacji na procesorze graficznym (GPU), co przynosi kilku-, a czasem nawet kilkudziesięciokrotny przyrost prędkości w stosunku do tej samej aplikacji uruchomionej na procesorze głównym (CPU). Technologia ta obsługiwana jest na kartach GeForce 8 i nowszych, a korzystają z niej np. programy obliczeniowe, enkodery video, czy ostatnio wypuszczony pakiet Adobe CS4, służący między innymi do profesjonalnej obróbki grafiki i nieliniowego montażu filmów.
Z jednej strony, praca nad rozwijaniem CUDA to dobry ruch, dający NVIDII możliwość wejścia na nowe, profesjonalne rynki. Z drugiej strony, optymalizacja GPU dla tego API mocno skomplikowała budowę procesorów graficznych, co spowodowało olbrzymie problemy z przejściem na proces technologiczny 55 nm. Po drugie, poświęcone na rozwijanie CUDA siły i środki nie zostały spożytkowane na funkcje istotne z punktu widzenia najważniejszej dotąd grupy odbiorców produktów NVIDII - graczy, entuzjastów i zwykłych użytkowników oczekujących dobrego stosunku wydajności do ceny. Z kolei ATI, przygotowując nową serię Radeon HD 4000 myślało przede wszystkim o szybkim 3D w niskiej cenie, zaniedbując przy tym optymalizację prędkości obliczeń w programach uruchamianych na karcie graficznej. W efekcie karty z serii GeForce najszybciej liczą struktury białek w Folding@Home i przyspieszają działanie CS4, ale to ATI ma tańsze i wydajniejsze w grach karty graficzne, obsługujące w dodatku DirectX 10.1.
Czyja strategia okaże się skuteczniejsza w dłuższej perspektywie? Przekonamy się w ciągu kolejnych miesięcy. Na razie na zaistniałej sytuacji lepiej wyszło ATI, a nad NVIDIĄ zbierają się czarne chmury. Najprawdopodobniej taka konfiguracja utrzyma się co najmniej przez najbliższe pół roku.
Komentarze
13Musieli się skupić na CUDA kosztem zaniedbania Kart Graficznych to normalne. Nie można prowadzić dwóch projektów, bo albo będzie się pracować nad jednym a dobrze, albo na obu, ale już nie z takim efektem jaki by się chciało osiągnąć.
Potencjał nVidia ma i technologie więc to pewnie tylko chwilowe zawahanie.
Dzięki temu posunięciu "zielonych" ATI odbiło się od dna wprowadzając serię 4800 i rozbudziło nadzieję graczy, że można coś kupić wydajnego nie koniecznie przepłacając.
Przypomnijmy, że CUDA pozwala na uruchamianie specjalnie przygotowanych aplikacji na procesorze graficznym (GPU), co przynosi kilku-, a czasem nawet kilkudziesięciokrotny przyrost prędkości w stosunku do tej samej aplikacji uruchomionej na procesorze głównym (CPU). Technologia ta obsługiwana jest na kartach GeForce 8 i nowszych, a korzystają z niej np. programy obliczeniowe, enkodery video, czy ostatnio wypuszczony pakiet Adobe CS4, służący między innymi do profesjonalnej obróbki grafiki i nieliniowego montażu filmów."
CS4 NIE korzysta z CUDA. Korzysta z wsparcia OpenGL.
CTM -> http://en.wikipedia.org/wiki/Close_to_Metal
oraz
HAVOC'a
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7855&Itemid=34
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8372&Itemid=34
Co prawda fizyka jest jeszcze na barkach CPU, ale jak opanują i odpowiednio dostosują to zostanie przeniesione na GPU.
Pzdr.
w przypadku ati kiedys warto bylo wylaczyc recovera i tyle..