PhysX ostatnio stał się dość ważnym tematem. Jak wiadomo - został zaakceptowany przez parę firm developerskich i na rynku pojawia się coraz więcej gier wspierających tą technologię. Chyba pierwszą grą, która ma naprawdę pokazać na co stać fizykę dostarczoną przez NVIDIE będzie Mirror's Edge - po za ładną grafiką i ciekawym podejściem do tematu gier FPP, mamy zobaczyć nowe efekty, których nie było nigdzie indziej (a jeśli były to w bardzo ograniczonej formie).
Za PhysXa może odpowiadać karta graficzna (tylko Nvidii, która ma wsparcie dla CUDA - czyli każdy GeForce serii 8 lub nowszy), bądź procesor. Istnieje także możliwość podziału - jedna karta graficzna zajmuje się obróbką grafiki i jej wyświetlaniem, a druga zajmuje się tylko liczeniem fizyki. Jest to bardzo dobre rozwiązanie, które rozdziela zadania pomiędzy dwa osobne urządzenia - znacznie zwiększając wydajność całego systemu. Co ważne: obie karty nie pracują w trybie SLI.
Oczywiście w przypadku kart ATI, pozostaje nam liczenie fizyki tylko przez CPU, co automatycznie zostawia ich z tyłu pod względem wydajności... jeśli nie samej wydajności graficznej - to napewno gra będzie dużo bardziej uboga pod względem efektów wizualnym takich jak: rozdzierające się flagi, tłukące się na tysiące malutkich kawałków szyby, itd.
Testy przeprowadzone na grze Cryostasis, są porównaniem różnych kart dostępnych na rynku. Każda karta została przetestowana pod kątem PhysXa przetwarzanego przez GPU (żółty pasek) i przez CPU (niebieski pasek). Na samym końcu można znaleźć porównanie z kartami ATI w połączeniu tylko z fizyką liczoną przez procesor - w tym przypadku napewno moc procesora mocno ogranicza wydajność całego systemu.
Tak jak wcześniej wspomniałem - istnieje możliwość połączenia kart w jednym PC, tak żeby jedna karta zajmowała się liczeniem tylko fizyki a druga skupiała się na "generowaniu pikselków". Karty w takim przypadku nie pracują w trybie SLI - są to po prostu dwa niezależne urządzenia i każde ma inne zadanie.
Do testów wybrano GeForce 9600GT, który zajął się tylko liczeniem "efektów specjalnych"
Jak widać - różnica w wydajności i ilości klatek/sec. jest dość duża. Jeśli użycie zintegrowanego chipu takiego jak mGPU GF9400 da podobne rezultaty, a w efekcie nie będzie trzeba kupować dodatkowej karty graficznej, będzie to całkiem fajnym rozwiązaniem.
Wyobraźcie sobie sobie to piękne połącznie:
- granie - mocna karta typu GTX280, która zajmuje się generowanie grafiki, a do tego układ mGPU, który zajmie sie liczeniem fizyki - duży wzrost wydajności.
- praca w systemie - i tu do akcji wkracza Hybrid SLI, który mocno zredukuje pobór prądu przez naszego GTXa a obróbka grafiki w systemie zajmie się zintegrowany układ. (ps. przy użyciu Hybrid SLI i GeForce 9800GX2 oszczędność prądu siega nawet 70W)
Graczom pozostaje tylko czekać i mieć nadzieję że PhysX w kartach graficznych naprawdę okaże się tak rewelacyjny i wniesie wiele nowego i dobrego do gier. ATI napewno nie pozostawi tego bez odpowiedzi - firmy będą się prześcigały, a użytkownicy będą mogli wybierać :)
Komentarze
31Jeśli tak to to szkoda ze nie ma wyników z udziałem Radosławów i kart Nvidi.
Pozdrawiam.
1. Na jakim procesorze był przeprowadzony test? Ponieważ są wyniki ale nie ma podanej specyfikacji sprzętu.
2. Jak użyje sie różnych CPU, jaka będzie rozbieżność wyników?
3. Czy karty physx na PCI typu ageia czy asus są obsługiwane przez w/w grę (oraz wszystkie nadchodzące)?
Baza dla tego testu byl:
- Intel Core i7 920 Overclocked to 3.3GHz
- Intel X58 Smackover Motherboard
- 3GB Qimonda DDR3-1066MHz
sterowniki:
- nvidia - 180.84
- ati - 8.12
Zaiste - procesor szmelcowaty :)
Co do kwestii graficznych i wygladu. Crysis zostaje mocno w tyle jesli chodzi o wyglad :) Mysle ze duzym obciazeniem dla tego testu jest zastosowanie duzej ilosci "fizyki wody".
Wystarczy odpalic Fluid Demo nVidi.
Mam na GF 8800GT 20-30fps na tym demie. A jak wylacze akceleracje fizyki na GPU to mam 2-3 fps... Co prawda to demo korzysta tylko z jednego rdzenia. Procesor 8mio rdzeniowy jakby wykorzystac caly do liczenia fizyki to GPU nie musi jej liczyc. Wtedy lepiej bylo by odciazyc GPU niech zajmie sie tylko grafika a wykorzystac wpelni CPU - po co ma sie marnowac.
Na PC jeden Kowalski ma super CPU 4, albo 8mio rdzeniowy i chce by fizyka liczona byla na nim. Na innym sprzecie Nowak ma 2 karty graficzne w tym druga slabsza i chce aby fizyka byla liczona na tej slabszej. A na trzecim Zieba ma 2 karty w SLI firmy ATI, ktore nie wspieraja PhysX a Havoc i mocny CPU.
I teraz jak biedny programista ma stworzyc aplikacje by dziala u kazdego super wpelni wyciagajac moc z jego komputera z kazdej karty graficznej czy to nVidia, czy Ati, czy to silny CPU dwu rdzeniowy, czy slaby ale 4ro rdzeniow itp itp.
A piszac pod konsole piszemy pod ta konkretna konsole. Moja konsola jest taka sama jak Kowalskiego konsola. Jak cos napisze pod ta konsole i dziala u mnie to bedzie dzialac i u Kowalskiego.
:)
Bo to, że PhysX lepiej działa na GPU, to nie ma wątpliwości.
z havoka korzystałem 2 lata temu w oblivionie i był dobry.
z physixa to tylko mam ich sterowniki (niewiem po co skoro mam x1950pro, ale siedzą). Faktycznie, fajne efekty, generowane na procesorze, o jakości grafki kilku kolorowej, słabje rozdzielczości itd;
CUDA- wielce o tym trąbią, podajcie mi choć jakąś aplikację która to wykorzystuje (skutecznie a nie wzrost 1fps)
A tworzenie nowej gry pod karty nvidii jest już nieuczciwe, jak widać nawet posiadając bardzo szybki PC i radeona sobie nie pogramy. Jestem BARDZO ciekawy jak wygląda ta szumnie zapowiadana grafika physix (wyłączając ulepszone rendery producenta i marketingowy bełkot producenta geforców).
parę fajnych detali dotyczących danych od producentów:
-Dx10 też miał być znakomitą technologią a jest tym co dx9c; miała być zatrważająca jakość i wydajność, było rozczarowanie i zmiana systemów na vistę.
-nehalem- jeszcze 3 lata temu zapowiadano że będą zawierały wbudowany chip gvraficzny pozwalający na granie w większość gier bez gpu- marzenia nic nie kosztują ;P
-CUDA- jeszcze jakiś czas temu szumnie zapowiadano rewolucję, oficjalnie przesuniętą na dx11, gdzie gpu przejmnie funkcje cpu.
A podsumowując to patrząc na ten test to mi się śmiać chce, że karta 9600gt, mocno okrojony 3 letni 8800gtx ma mieć wyższą wydajność od HD4870X2; może faktycznie tak jest w laboratorium nvidi- bo wyrwali kawałek pamięci z radka
niech się schowają z physixem, za taką postawą jaką reprezentują od dawna to geforca nie kupię
tutaj wideo z porównania z PhysX i bez:
http://www.anandtech.com/weblog/showpost.aspx?i=530
Havok a akceleracja to śpiew przyszłości, niestety.
CUDA - jeszcze cudów nie ma, programy z tego korzystające można policzyć na palcach, ale już są (łamanie haseł-Elcomsoft, kompresja video-badaboom)
swoją drogą piękne porównanie kompresja za pomocą GPU w wykonaniu nVidii i ATI : http://www.anandtech.com/video/showdoc.aspx?i=3475
nie wiem jak ATI mogło tak sp***** sprawę :D