Nowa generacja akceleratorów Nvidia Tesla oferuje jeszcze lepszą wydajność przy zachowaniu takiego samego poboru energii elektrycznej.
Nvidia zaprezentowała akceleratory obliczeniowe Tesla P4 i Tesla P40, które sprawdzą się w systemach głębokiego uczenia (deep learning). Nowa architektura Pascal pozwala tutaj uzyskać jeszcze lepszą wydajność i wyższą efektywność energetyczną względem modeli z poprzedniej generacji Maxwell.
Nowoczesne usługi oparte o sztuczną inteligencje (AI) sprawdzą się w różnych zastosowaniach – począwszy od asystentów aktywowanych głosem, przez filtry antyspamowe dla skrzynek email, a kończąc na silnikach rekomendacji filmów i produktów. Problem jednak w tym, że technologia ta obecnie opiera się głównie na procesorach centralnych (CPU), które nie są w stanie zapewnić odpowiedniej wydajności. Rozwiązaniem tego problemu okazują się akceleratory obliczeniowe, takie właśnie jak Nvidia Tesla – jakiś czas temu producent wprowadził do oferty swój topowy model Tesla P100, a podczas konferencji GPU Technology Conference 2016 zaprezentował słabsze modele Tesla P4 i Tesla P40.
Tesla P4 ma postać niskoprofilowej karty rozszerzeń, więc sprawdzi się w mniejszych serwerach – konstrukcja ta oferuje wydajność zbliżoną do 13 standardowych procesorów, a przy tym charakteryzuje się 40-krotnie wyższą efektywnością energetyczną. Na pokładzie znalazł się układ graficzny Pascal z 2560 rdzeniami CUDA oraz 8 GB pamięci o przepustowości 192 GB/s, a pobór mocy wynosi tutaj nawet 50 W (maksymalnie 75 W).
Tesla P40 to już znacznie wydajniejsza konstrukcja, bo oferuje wydajność porównywalną do 140 standardowych procesorów – zakładając, że każdy z nich kosztuje 5000 dolarów, nabywca może liczyć na oszczędność rzędu 650 000 dolarów. Karta bazuje na układzie graficznym Pascal z 3840 rdzeniami CUDA i ma do dyspozycji 24 GB pamięci o przepustowości 346 GB/s. Pobór mocy oszacowano na 250 W.
Model | Tesla M4 | Tesla P4 | Tesla M40 | Tesla P40 |
Układ graficzny | Maxwell GM206 | Pascal GP104 | Maxwell GM200 | Pascal GP102 |
Rdzenie CUDA | 1024 | 2560 | 3072 | 3840 |
Taktowanie | 872/1072 MHz | 810/1063 MHz | 948/1114 MHz | 1303/1531 MHz |
Moc obliczeniowa | 2,2 TFLOPS | 5,5 TFLOPS | 7 TFLOPS | 12 TFLOPS |
Pamięć wideo | 4 GB GDDR5 128-bit | 8 GB GDDR5 256-bit | 12/24 GB GDDR5 384-bit | 24 GB GDDR5 384-bit |
Taktowanie pamięci | 5500 MHz | 6000 MHz | 6000 MHz | 7200 MHz |
Przepustowość pamięci | 88 GB/s | 192 GB/s | 288 GB/s | 346 GB/s |
TDP | 50-75 W | 50-75 W | 250 W | 250 W |
Przy okazji prezentacji nowych akceleratorów udostępniono nowe biblioteki Nvidia TensorRT i Nvidia DeepStream SDK, które wspomagają i optymalizują zadania związane z systemami głębokiego uczenia.
Gotowe serwery z kartami Tesla P4 i P40 będą dostępne u partnerów OEM i ODM odpowiednio od listopada i października tego roku.
Źródło: Nvidia, AnandTech
Komentarze
13Ba może nawet będzie nowy titan z ( co by pozamiatał wszystko w grach )
Czyli możemy się spodziewać Tytana XP Black? Albo obecny tytan XP to rdzeń który powinien być w 1080Ti a ten z 3840 CUDA znaleźć się w Tytanie XP?