Jedną z zalet FreeSync w porównaniu do G-Sync jest to, że jest to technologia całkowicie wolna od opłat dla każdego z partnerów.
Technologia AMD FreeSync zapowiada się całkiem obiecująco i może nieźle namieszać na rynku monitorów dedykowanych graczom. Niedawno poznaliśmy kolejne szczegóły na temat tego rozwiązania, które w wywiadzie dla PCR-Online ujawnił Richard Huddy – osoba ściśle związana z działem gier w AMD.
FreeSync pozwala kontrolować czas między generowaniem klatek i w efekcie eliminuje problem „rwań”, zacięć i opóźnień w wyświetlanym obrazie. Niedawno rozwiązanie to zostało wprowadzone przez organizację VESA (Video Electronics Standards Association) do standardu DisplayPort 1.2a, dzięki czemu będzie wolne od jakichkolwiek opłat licencyjnych. W efekcie monitory FreeSync będą tańsze, niż modele korzystające z konkurencyjnego rozwiązania Nvidia G-Sync (tutaj producenci muszą uiścić stosowną opłatę licencyjną oraz zainstalować dodatkowy moduł) – różnice w cenie mają sięgać 80 – 100 dolarów.
Oczywiście nic nie stoi na przeszkodzie, aby w danym monitorze były obecne obydwie technologie – AMD FreeSync i Nvidia G-Sync. Bardzo możliwe, że pierwsze monitory z rozwiązaniem Nvidii takiej obsługi mieć nie będą, ponieważ FreeSync to nowy standard. Niemniej w momencie wejścia na rynek pierwszych monitorów z technologią AMD, na rynku powinny również pojawić się modele z jednym i drugim standardem. Tak przynajmniej wygląda teoria, bo jednak G-Sync podnosi koszt monitora, a przecież jak nie widać różnicy, to po co przepłacać ;)
Kiedy powinniśmy się spodziewać pierwszych monitorów z FreeSync? Pierwsze modele do testów powinny trafić do recenzentów nawet we wrześniu/październiku, aby recenzje mogły się ukazać jeszcze przed Świętami. Dostępność w sklepach przewidziana jest początek przyszłego roku.
Źródło: PCR-Online
Komentarze
59Powód? Trafia wyłącznie do monitorów 120-144Hz gdzie sama częstotliwość rozprawia się z screen tearingiem.
Mam nadzieję, że FreeSync trafi do zwykłych 60-tek gdzie efekt będzie widoczny.
Ktoś ma rozeznanie ?
Bo pomysł aby monitor miał zmienną częstotliwość odświeżania - dopasowująca się do gry np czekając na event z karty już z 2 lata temu pisałem na elektrodzie, bo dawno coś takiego wymyśliłem i pytałem, czemu to nie jest możliwe.
Z tego co zrozumiałem z odpowiedzi wynikało, że technicznie nie bardzo się da zrobić takie coś bo kryształ trzeba co chwilę odświeżać w równych odstępach czasu bo inaczej obraz zniknie.
A co się zmieniło teraz, że dziś nagle się już da?
Jednak wydaje mi się, że skoro Nvidia pcha do monitorów dodatkowy moduł elektroniki, to programowe rozwiązanie od AMD będzie jeszcze bardziej obciążało grafike.. obym się mylił.
http://www.pcronline.com/find/advanced?SearchText=freesync&SearchType=default%7Call&Year=&MatchType=word&SearchButton.x=0&SearchButton.y=0
ŻADNEGO WYNIKU DLA SŁOWA FREESYNC.
Na podanym linku z infografiką wyraźnie jest napisane: G-SYNC Refresh Rates 30-144Hz. Myślnik oznacza, że wybór jest płynny i właśnie będzie zmienny i zależny od aktualnie renderowanej kratki. Za to w trybie 3D (stereoskopowy z aktywną przysłoną) znowu są stałe czasy odświerzania 100 i 120Hz, co przekłada się na 50 i 60Hz dla każdego oka.
Generalnie G-SYNC ma wyglądać tak:
Rendering 1. klatki zajmie przykładowo 16ms i od razu nastąpi wyświetlenie. Kolejna klatka będzie wygenerowana dla przesunięcia czasu sceny około 16ms i będzie tworzona 18ms i też po zakończeniu zostanie natychmiast wyświetlona. Za to 3 klatka zostanie narysowana dla przesunięcia geometrii w czasie o 18ms a jej rendering potrwa 17 ms i po zakończeniu pojawi się "bezzwłocznie" na ekranie, itd.
W dotychczasowym rozwiązaniu ze stałą częstotliwością wyświetlania i włączonym V-SYNC przy 60Hz powyższa sytuacja wyglądała by tak:
Rendering 16ms, oczekiwanie na wyświetlenie 0,66ms, ale dzięki podwójnemu buforowaniu natychmiast generowana jest kolejna klatka przez 18ms, z przesunięciem w czasie o 16ms. Niestety nie zdąży się ona pojawić na ekranie przy kolejnym zdarzeniu odświerzania, gdyż 18-0,66ms = 17,34 co jest większe niż 16,66ms (1/60s). Co powoduje, że pierwsza klatka jest widoczna na ekranie przez ponad 33 ms zamiast niecałych 17 ms. Takie powtarzające się przypadki powodują, że obraz wyraźnie "drga", tzw jitter.
Tutaj, dzięki użytkownikowi "szatkus", znajdziesz materiał źródłowy: http://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-v1.pdf. Spójrz na rycinę numer 3, gdzie wyraźnie w przykładzie dla Adaptive-Sync jest pokazane, że zamiast ponownie wyświetlać klatkę A, wstrzymano odświerzanie, aby poczekać na klatkę B. Dzięki temu "jiter" wynosi tylko około 1/3 klatki zamiast całej jak w przypadku tradycyjnego V-Sync. I na pewno nie chodzi tutaj o bufor w monitorze, tylko to co jest prezentowane na ekranie.
Generalnie to nie wiem czy przyśpieszanie wyświetlania klatki będzie możliwe, ale opóźnienie o pewien czas na pewno. Już nie mogę się doczekać oglądania filmów 23,978 fps bez niepotrzebnej kerekcji czasu klatek (Frame Time Corection). Przy odświerzaniu 50 Hz (VSYNC co 40 ms), wyświetlając klatkę dwa razy wystarczy przed nową zaczekać 1,7ms i będzie niemal idealnie 23,978 FPS (VSYNC co 41,7 ms).