Podzespoły komputerowe przeznaczone do podkręcania wymagają dobrego chłodzenia. Dlatego też, Gigabyte zaprezentował niereferencyjnego Radeona HD 6870, który wyposażono w bardzo efektywny system WindForce X3.
Dzisiejszy dzień (15 grudnia 2010 roku) upływa pod hasłem premiery kart graficznych Radeon z serii HD 6900, ale nie oznacza to, że potencjał kart wykorzystujących procesory Barts jest już wyczerpany. Przypomina nam o tym Gigabyte, który zaprezentował niereferencyjnego Radeona HD 6870 - drugą w swojej ofercie kartę typu HD 6870.
Warto przeczytać: | |
Jak przystało na konstrukcję dla wymagających, została ona stworzona w oparciu o technologię Ultra Durable VGA+. Taktowanie rdzenia zostało minimalnie zwiększone z 900 MHz do 915 MHz, natomiast częstotliwość pracy pamięci pozostała nietknięta - wynosi 1050 MHz (efektywnie 4200 MHz).
Trzeba przyznać, że z jednej strony mała ingerencja w taktowania karty ucieszy zaawansowanych overclockerów, którzy wolą samemu podkręcić kartę, natomiast z drugiej strony odbije się to na mniej zaawansowanych użytkownikach, którzy nie będa potrafili w 100 procentach cieszyć się możliwościami karty. Na dłuższym niż zwykle laminacie umieszczono 1 GB pamięci GDDR5 o 256-bitowej magistrali.
O odpowiednie temperatury akceleratora graficznego zadba autorski system chłodzenia WindForce X3. Składa się on z, pokrywającego prawie całą powierzchnię płytki drukowanej, aluminiowego radiatora z rurkami cieplnymi oraz trzech 80 mm wentylatorów. Karta została wyposażona w referencyjny zestaw wyjść wideo - po dwa wyjścia DVI i mini DisplayPort oraz jedno HDMI.
Cena i data wprowadzenia do sprzedaży karty są na razie nieznane.
Źródło: Gigabyte
Polecamy artykuły: | ||
Poradnik świąteczny | MEGATEST: wydajne laptopy i poręczne netbooki | Jabłko czy gruszka? Test iPada z iOS 4.2 |
Komentarze
16moim zdaniem amd i ati to firmy które boją sie innowacji....wszystko co w it było nowe nie wyszło od ati ani od amd....to inne firmy ryzykują i wprowadzają innowacje a amd jak zobaczy ze jest to dobre to kopiuje......nvidia zaryzykowała fermim ale dzięki temu wszystko idzie do przodu...ati to hamulcowy rozwoju gpu...ich gpu praktycznie do niczego nie służy oprócz grania....a weźcie sobie takiego fermiego który ma szeroki wachlarz zastosowań :)