GeForce GTX Titan to bezdyskusyjnie najszybsza jednordzeniowa karta graficzna, w jaką możemy uzbroić naszego peceta. Zapewnia wyśmienitą wydajność w każdej grze, ma akceptowalny pobór prądu, nie osiąga astronomicznych temperatur, a układ chłodzenia nie zmusza wkładania zatyczek w uszy. Zbawienie dla graczy?! A jakże, o ile tylko ich stać na wyłożenie blisko 4 tys. złotych.
Geneza wdrożenia Titana wydaje się dość prosta. Nvidia stworzyła akcelerator bazujący na istniejącej już wcześniej Tesli (wykorzystywany do superkomputerów), dzięki czemu nie trzeba było opracowywać nowej architektury, czy budować chipu od nowa. Szybko i prosto. Rozbudowana architektura oferuje takie możliwości, że obyło się bez kręcenia rdzenia do ponad 1 GHz.
Titan wydaje się być świetnym rozwiązaniem dla przeciwników konfiguracji multiGPU. Choć producenci sprzętu i oprogramowania cały czas dążą do jak najlepszego wykorzystania platform składających się z dwóch lub więcej akceleratorów graficznych, to nadal zdarzają się wpadki z wydajnością, mikroprzycięciami, wymogiem zapewnienia odpowiednio wolnej przestrzenie w obudowie komputera, czy wreszcie z dużym poborem mocy. Co prawda zakup karty GeForce GTX 690 niweluje część wymienionych minusów platformy multiGPU, to jednak nadal pozostają najważniejsze z nich: możliwie przycięcia, bądź słaba obsługa SLI. Nie dotyczy to natomiast akceleratora z tylko jednym GPU, jakim właśnie jest Titan.
Nowość zielonych dedykujemy w głównej mierze zapalonym graczom z dużymi monitorami (27-30 cali), bądź entuzjastom. Tylko w najwyższych detalach graficznych Titan pokaże swój pazur. Stosując go w popularnej wśród graczy rozdzielczości 1920x1080 sprawimy iż GeForce GTX Titan często będzie się nudził nie wykorzystując swoich mocy przerobowych. Sprawdzi się tam, gdzie Radeon 7970 GE lub GeForce GTX 680 dostają zadyszki. Według naszych testów, Titan często jest w stanie generować bardzo płynny obraz, w sytuacjach gdy starsze jednordzeniowe karty graficzne wyświetlają obraz na granicy akceptowalnej płynności.
Nvidia zaopatrzyła swoje najnowsze dzieło w złącza SLI, dzięki czemu istnieje możliwość połączenia nawet trzech Titanów. Trudno sobie wyobrazić wydajność, jaką dysponowała by taka platforma, ale musi być astronomicznie wysoka. Jak tylko będziemy mieli okazję na pewno to dla Was sprawdzimy.
Jeśli tylko posiadacie odpowiednią ilość gotówki, monitor większy od okna, kupujecie każdą nowo wydaną grę i nie uznajecie innych ustawień graficznych jak „wszystko na maksa”, zaprezentowany w niniejszym artykule GeForce GTX Titan jest kartą właśnie dla was. A jeszcze lepiej jak sprawicie sobie od razu dwa lub trzy ;-) Polecamy!
Ocena: GeForce GTX Titan | |||
plusy: • super wydajność w każdym trybie • relacja poboru mocy do wydajności • akceptowalne temperatury pod obciążeniem • zmodernizowana technologia Boost 2.0 • cicha praca chłodzenia w spoczynku | |||
minusy: • bardzo wysoka cena | |||
Orientacyjna cena w dniu publikacji testu: 3800 zł | |||
Ocena: Zotac GeForce GTX Titan | |||
plusy: • super wydajność w każdym trybie • relacja poboru mocy do wydajności • akceptowalne temperatury pod obciążeniem • zmodernizowana technologia Boost 2.0 • cicha praca chłodzenia w spoczynku • w wyposażeniu świetny zestaw gier z cyklu Assassin’s Creed | |||
minusy: • bardzo wysoka cena | |||
Orientacyjna cena w dniu publikacji testu: 3800 zł | |||
Komentarze
138Wciąż wydajniej i taniej i i to o wiele tanie jwychodzi kupic 2x GTX680.
Ciekawie mogla by się sprawdzić w renderingu za pomocą iray i vray, gdzie takie taktowania i ilość pamięci mogla by zapewnić wysokie miejsce. Az wart oby się pokusić o taki test bo mamy tu do czynienia z GK110.
byłem chętny na titana a teraz mam mieszane uczucia.
i7 2600k @4,0 GHz + hd7970
P.S.
Podchodząc do tego realnie, czy średni wzrost wydajności o 20~30% usprawiedliwia wzrost ceny o 300% ???
No kurde, myślałem, że Titan wprost zmiażdzy inne karty, a tu proszę.
Radeonik w niektórych grach dzielnie walczy.
Zastosowanie układów amd w konsolach jednak troche namiszało w nvidzie.
http://blenderartists.org/forum/showthread.php?239480-2-61-Cycles-render-benchmark
zobaczymy czy ta karta sjest warta więcej niż GTX 580. Jak wiadomo 680 zawiodła oczekiwania i radzi sobie kiepściutko w tym temacie.
BTW. szkoda, że wrzuciliście sam test Valley pomijając Unigine Engine 4. Warto też czasem sprawdzić jak wygląda wydajność w OpenGL, jeżeli nie w grze, to chociaż w benchmarkach w końcu nie samym D3D człowiek żyje :)
Ciekawe jakby się to cudo sprawdził na 3 monitorach 4k każdy :D
Nvidia wyda do lata nową serię a AMD zaserwuje klientom odgrzewane kotlety, czyli poprawione modele 7000.
fakt jest najwydajniejsza, ale w porównaniu do ceny niestety totalnie nie opłacalna... wystarczy radek 7970 i wszystko działa na full..
Titan ma rację bytu ale jeśli kosztowałby max 2,5 klocka.
Oczywiście, że znajdą się nabywcy ale raczej pasjonaci i entuzjaści...
Czekam na ruch ze strony AMD szkoda, że dopiero IV kwartał 2013...
To się nazywa karta - to jest najlepszy obraz przepaści na rynku GPU - nVidia znów pokazała kto jest najwłaściwszym wyborem na rynku kart. Podniosą wydajność w low-endzie, jak podnieśli z 680 do titana i konkurencja może iść do dodmu
Gdzie są konsolowcy i ich argumenty?
Trzeba byc nolifem i miec niezle narabane w glowie, aby dla gier wydawac 4 tysiace zlotych na sama karte graficzna a zeby ta karta nie marnowala mocy, to reszta podzespolow podniesie cene takiego kompa do ponad 10 tysiecy.
Jesli taki ''zapalony gracz'' nie jest nolifem, to co na to jego zona, dziewczyna czy rodzina. Jakos nie wyobrazam sobie powiedziec do zony ''kochanie wezme sobie z konta 4 tysiace zl, poniewaz chce kupic nowa karte graficzna''.
tu jest prawdziwa karta za 12,500 zl , mam takie 2 w crossfire
a itak nie daja rady crysysowi 1
A niby skąd w teście układu SLI GTX 680 wzięło sie 4GB pamięci ?
Jeżeli sądzisz ze 2+2=4 GB to podpowiadam ze Pamięć Sie Nie Sumuje!
choc fajnie zobaczyc owego lidera :)
Nowy FarCry wcale nie gorszy od Crysisa 3 - podobne wymagania.
W Kanadzie płacisz 3000zł za taką samą... Razem z Vat to jest jeszcze 700 taniej niż u nas. To samo jest z GTX690