Gigabyte GTX Titan OC: karta z referencyjnym i autorskim chłodzeniem WindForce 3X w zestawie
Standardowo karta została wyposażona w referencyjne chłodzenie, ale w zestawie z nią znajduje się też autorskie WindForce 3X
Jakiś czas temu pisaliśmy o karcie Gigabyte GeForce GTX Titan z autorskim chłodzeniem WindForce 3X, którą można było podziwiać na cyklu konferencji Gigabyte Tech Tour 2013. Model ten jest już dostępny w oficjalnej ofercie producenta.
Gigabyte GeForce GTX Titan OC, jak sama nazwa wskazuje, pracuje z fabrycznie podniesionymi zegarami - w tym przypadku do 928 MHz (980 MHz w trybie GPU Boost 2.0) dla procesora graficznego oraz 6008 MHz dla pamięci wideo. Na standardowej płytce drukowanej umieszczono układ graficzny Kepler GK110 z 2688 rdzeniami CUDA oraz 6 GB pamięci GDDR5 384-bit.
Z przodu udostępniono wyjścia DVI-D, DVI-I, HDMI i DisplayPort, natomiast obok jeszcze dwa złącza SLI. Do poprawnego działania karty wymagane jest podłączenie jednej 6- i jednej 8-pinowej wtyczki zasilającej – producent zaleca tutaj wykorzystanie zasilacza o mocy co najmniej 600 W.
Standardowo akcelerator został wyposażony w referencyjne chłodzenie, ale w zestawie dodawany jest jeszcze autorski cooler WindForce 3X – jego montażu dokonuje się we własnym zakresie, co nie powoduje utraty gwarancji (w zestawie znajdują się wszystkie potrzebne elementy). Konstrukcja ta składa się z dwóch aluminiowych radiatorów, sześciu miedzianych ciepłowodów (czterech o grubości 6 mm i dwóch o grubości 8 mm) i trzech wentylatorów, a według producenta może sobie ona poradzić z odprowadzeniem nawet 450 W ciepła.
Specyfikacja karty graficznej Gigabyte GeForce GTX Titan OC:
- rdzeń: Kepler GK110
- procesory strumieniowe: 2688
- taktowanie rdzenia: 928 MHz (980 MHz w trybie Boost 2.0)
- pamięć wideo: 3 GB GDDR5 384-bit
- taktowanie pamięci: 6008 MHz
- złącza zasilające: 6+8-pin
- wyjścia wideo: DVI-I, DVI-D, HDMI, DisplayPort
- chłodzenie: referencyjne + WindForce 3X
Jeszcze nie wiadomo kiedy i w jakiej cenie opisywany akcelerator trafi do sprzedaży.
Źródło: Gigabyte, profil Gigabyte VGA na portalu Facebook
Komentarze
9Sam pomysł uważam za ciekawy.