GeForce RTX - taką nazwę nosić będą nowe kart NVIDII, które mają przynieść prawdziwą rewolucję. Czy faktycznie przyniosą? Wiele wskazuje, że tak choć jako gracz nie jestem przekonany, że będzie ona tak spektakularna jak początkowo mogłoby się wydawać.
GeForce RTX na scenie
Na tę premierę wielu pecetowych pasjonatów czekało od dawna. Wszak spekulacji o NVIDIA GeForce RTX trochę było. Ostatecznie nową rodzinę kart bazujących na układach graficznych Turing poznaliśmy przed kilkoma godzinami podczas konferencji GeForce Gaming Celebration.
Mnie osobiście udało się znaleźć na widowni tego wydarzenia, a później także za jego kulisami. Stąd też chciałbym podzielić się z Wami moimi wrażeniami, jak odebrałem ów show, jako zapalony gracz.
To ważne, bo patrząc na reakcje zebranej publiczności spora większość z nich była mocno „wkręcona” w technologie. Stąd zapewne „achy” i „ochy” przy każdym wykresie czy schemacie działania nowych układów.
Zabawa w odbicia….
….i odbicia odbić. A potem jeszcze odbić odbić odbić. Jasne, upraszczam teraz całą konferencję, ale mniej więcej tak ją odebrałem siedząc na widowni. Czy wyglądało to źle? Bynajmniej, założenia są świetne. Gorzej z prezentacjami.
Dla mnie, jako gracza liczy się to co otrzymam kupując nową kartę graficzną. Dodajmy, że za wcale nie takie małe pieniądze, patrząc na pierwsze preordery. I tu robi się już troszkę gorzej. Bo o ile animacja z Phasmą, a później – Project Sol, prezentowały się genialnie, o tyle pokazy gier nie robiły już tak kolosalnego wrażenia.
Nie zrozumcie mnie źle, te wszystkie prezentacje odbić wyglądały naprawdę nieźle, szczególnie w Battlefield V (kwestię samej jakości oprawy graficznej w tej grze pomijam, bo nie wiemy wciąż czy i jak zostanie to poprawione w finalnym kodzie).
Powiedzmy sobie jednak szczerze – ilu z Was będzie miało czas podczas dynamicznej wymiany ognia by zaglądać w oczy żołnierza, spoglądać na rozbłyskującą ogniem karoserię samochodu czy robić maślane oczy na widok nadlatującego pocisku V-1, który za moment rozświetli wybuchem wszystkie okoliczne domy.
OK, ten ostatni efekt wyglądał naprawdę spektakularnie, tylko czy to wystarczy by sobie uzasadnić zakup GeForce RTX?
Nie mniejsze wątpliwości mam w przypadku Shadow of the Tomb Raider, którą dane mi zobaczyć wcześniej, na początku sierpnia, także na Xbox One X. Bo o ile podczas prezentacji na scenie konferencji NVIDIA wiele rzeczy dało się zauważyć od razu, po „włączeniu” RTX i sztucznym umieszczaniu kamery nad pożądanymi obiektami, o tyle już później, w czasie udostępnionego mi kawałka już normalnej gry, tak widowiskowych różnic jakoś nie potrafiłem dostrzec.
Przyglądając się z kolei kolejnym prezentacjom, w tym krótkiemu filmowi z Metro: Exodus, zacząłem się zastanawiać jak ta technologia będzie współgrać z HDR, bo niektóre sceny aż prosiły się o dodanie tego efektu np. stół oświetlony wyłącznie światłem z okna.
Pytanie czy jesteśmy w stanie te wszystkie „odbiciowe” bajery i bardziej realistyczne cienie zauważyć i docenić w czasie normalnej gry.
Pasjonaci pecetów pewnie teraz się żachną że chyba jestem ślepy, ale ja po prostu mam obawy czy to aby nie są takie efekty, które po pierwszym zachwycie giną w czasie dalszej zabawy jak 3D podczas seansu filmowego.
Pozostaje mieć nadzieje, że z wydajnością GeForce RTX będzie lepiej. Wszak Jensen Huang, prezes NVIDII, podczas krótkiego fragmentu starusieńkiego dema Inflitrator, stwierdził, że żadna z wcześniejszych kart nie potrafiła osiągnąć w 4k takiego wyniku co RTX. Cóż, pożyjemy, zobaczymy.
A tak swoją drogą , ciekawe czy nadejście GeForce RTX oznaczać będzie spadek cen pozostałych kart? Jak myślicie?
Komentarze
64Faktycznie otwiera twórcom nowe możliwości.
Może to tylko moje zdanie, ale...
uważam, ze jest na świecie trochę przesyt wszystkiego.
Sprzęt komputerowy, procek, karta itd...
Komorki, Samsung Note 8, teraz Note 9 - po co ??? (raczej nie mam zamiaru wymieniać, Note 8 jest dla mnie MEGA!)
Gry, co roku wychodzi kilka nowych tytułów itd..
(Jak jeszcze miałbym PS4 i exclusivy, to bym tego w życiu nie ogarnął)
Gry, ja mam mnóstwo zaległości z 2015, 2016, 2017
(myślę, ze nie należę do rzadkości, wielu tak ma)
Na GTX 1070 wszystko śmiga na Ultra.(w1080p)
Trzeba się bić o klienta.
Jeżeli ta generacja nie będzie miała dużego przeskoku, to słabo ją widzę.
Czasami tak jest, ze jest coś słuszne i konieczne aby się rozwijać, ale ekonomicznie dla większości ludu nie uzasadnione.
Czasami przeprawa, na nowa technologie jest początkowo bardzo kosztowna i bolesna dla twórców.
Tutaj tak może być
Narazie bez testow, to rtx2070 mniej wiecej GTX1080
RTX 2080 mniej wiecej GTX 1080Ti
slaby krok na przod
Co do demek, to niezbyt zachwycają, ale jak technologia trafi w odpowiednie ręce, to znikną głosy narzekania.
Póki co nie widzę powodu, aby ktoś miałby przesiąść się z Pascala na Turinga.
No i osobiście, bardziej ciekawi mnie segment mid-range typu 2060, 2050Ti.
Porownanie itd.
RTX 2080Ti będzie raczej dla koneserów
W ogolę dziwie się czemu zaczynają od Ti ???
Interesuje mnie porównanie:
RTX 2070 vs GTX 1080Ti
nie jakieś Gflopsy i Memory band itp.
Interesuje mnie realne porównanie w grach.
No i oczywiście cena
Tez ta realna, a nie obiecana
Oczywiście juz niereferenty np MSI ASUS itp.
Do tej pory XX70 wygrywal z XX80 Ti poprzedniej generacji
GTX 970 > GTX 780Ti
GTX 1070 > GTX 980Ti
Jeżeli tu będzie spadek wydajności w RTX2070 w stosunku do GTX 1080Ti, to cala ta generacja będzie słabsza.
Panie Macieju. A czy ma Pan czas się zachwycać cieniami w takiej postaci w jakiej są obecnie? Czy po dłuższej rozgrywce robi na Panu wrażenie, że jakiś liść czy inne źdźbło trawy daje cień? Pewnie, że na takie rzeczy nie zwraca się uwagi świadomie, bo nie jest to główny cel gry, żeby siedzieć z nosem w ekranie i oglądać z bliska każdy jeden "zakamarek graficzny". Co do odbić w źrenicach... podczas rozgrywki może nikt nie zwróci uwagi, ale w przerywnikach filmowych na silniku gry już jak najbardziej.
Bardzo ignoranckie podejście Pan przedstawił w kwestii tego czy ta nowa technologia jest warta czegokolwiek. Jest bardzo warta. A dostrzeże to Pan za lat powiedzmy 5 jak już gry z niej zaczną szerzej korzystać i większa ilość osób będzie miała akceleratory ją wydajnie obsługujące. Wtedy Pan wróci do starszej gry i zobaczy jakie to oświetlenie i cienie takie płytkie i sztuczne.
To jest zupełnie inne podejście do renderowania. I zdecydowanie przyszłość, bo ile to zaoszczędzi czasu grafikom i animatorom, żeby się chrzanić z jakimiś cieniami dodawanymi na stałe, żeby imitować źródła światła. Teraz będzie model i tekstury a resztę zrobi ray-tracing. Nie ma co się spinać, póki co pojawi się w grach jako dodatkowa opcja. Ale myślę, że już za jakiś rok albo dwa ta technologia zacznie odgrywać dużo większą rolę.
Wszyscy narzekający na cenę, pamiętajcie, że jest to spory technologiczny przeskok, to nie jest tylko więcej "CUDÓW" i wyższe taktowanie. Jak faktycznie pracowali nad tym 10 lat to nie myślcie, że jako pionierzy wypuszczający to na rynek oddadzą to za bezcen. Poza tym to jakie ta technologia daje możliwości to i tak się cieszę, że mogę sobie taką kartę w ogóle kupić i nie są to dziesiątki tysięcy dolarów.
No i na koniec dodam, pamiętajcie, że to dopiero początek, a w tych wszystkich prezentowanych zmianach w grach, ray-tracing został użyty w małej skali. Zobaczycie jakie gry zaczną powstawać w ciągu najbliższych lat. Ulepszą biblioteki, silniki gier, directX itd. Oświetlenie i cienie będą liczone przez oddzielne układy, więc więcej mocy będzie na to, żeby animacje były bardziej złożone czy modele, czy bardziej zaawansowana fizyka.
PS. Tak, zgadzam się, dla osoby, która teraz kupi kartę, może nie dostanie udaru od nadmiaru bodźców, ale z czasem będzie tylko lepiej.
Wcale mnie nie dziwi, ze RTX 2080 jest 10x szybszy od Titana X w operacjach RT, jesli byl pod to projektowany, pozy tym pozostaje pytanie czy klatki w RTXach dopelnione przez AI sa tej samej jakosci co generowane w pelni np przez Titan X.
Wyglada mi na to, ze jak raytracing "nie wyrobi" sie w okreslonym czasie to reszte dorobi AI, i bedziemy miec artefakty jak przy slabym sygnale?
Sceny w demach byly male, nie bylo wlosow, twarzy itp same powierzchnie idealne do raytracingu.
Sam pan Skorzana Kurtka mowil ze raytracing jest 10 lat wczesniej (za wczesnie?), dlatego musi polegac na jakichs uproszczeniach i do tego to nieszczesne AI, ktore ma extrapolowac brakujace pixele? Dla mnie tragedia. Konczy sie generowanie grafiki, zaczyna zgadywanie?
Ceny tez przegiete i raczej potwierdzaja domysly, ze nvidia lub producenci rzeczywiscie siedza na duzej ilosci niesprzedanych Pascali.
Ja jestem zawiedziony po prostu, bo nie dostalismy niczego konkretnego tylko jakies nic nie mowiace RTX ops i Gigarays.
Co do samego pomyslu i wykorzystania raytracingu - nie jest to moze rewolucja, ale na pewno kolejna ewolucja do fotorealizmu.
Choc autor artykułu twierdzi, ze podczas dynamicznej gry tego nie zauwazymy, ale juz nasza podswiadomosc tak, bo diabel tkwi w szczegolach, o ktorych nawet nie myslimy.
Wciaz jestesmy w stanie, prawie bezblednie i w ciagu ulamka sekundy odroznic, ze dana postac to render, a inna jest czlowiekiem z krwii i kosci. Kolejne (te male) usprawnienia sprawia, ze ta granica bedzie coraz mniej widoczna.
Ale co z tego skoro w innych dziedzinach sie cofamy. Pamietacie fizyke ognia z FarCry 2 ? albo fizyke rozwalania otoczenia i budynkow z RedFaction? Mamy za to teraz coraz ladniejsze screenshoty, ktore mozemy zrobic i pokazac dzialowi PR. Srednio mi sie to podoba.
A personalnie... mam 1070 i nie mam zamiaru zmieniac przez najblizsze pare lat, w sumie po co, skoro fajnych gier i tak jak na lekarstwo (a moze to juz starosc?) :)
Zobaczymy jak wypadnie RTX 2080 na tle gtx 1080 ti bo tego obecnie zamierzam kupic. Ceny gtxow polecialy dosyc mocno na dol.
I niewiem czy gtx 1080 ti nie bedzie najbardziej oplacalnym zakupem w najblizszym czasie
Zobaczyć tumanów spamujących czas, bzdetami, nakręcającymi się propagandą, czy co gorsze wypisujący bzdurę "AMD RIP".
Masakra, tak rozdmuchać ray-tracing. Nie wiem czy oni wśród tych 10x szybciej, 20, 100, 1000! Załapią że wydajność dla zwykłych normalnych gier będzie delikatnie większa. Ot będzie płacz - toż miało być pierdyliard raza szybciej.
Już widzę te wsparcie w grach. Szczególnie że mamy konsole... Pamiętacie co było z DX12 - jak to z początku wyglądało? Nawet lodówki miały to wspierać a prawda okazała się zgoła inna.
Ciń-ciąk sam śmiał się ze swoich żartów, tak zadufany w tej propagandzie.
O cenie nowych GPU nawet nie będę wspominał.
RTX 2080 Ti w wersji FrajerEdition za 5,5k złotych : nieźle odlecieli .
Ja już z Nvidią skończyłem rok temu , i nie telsknię za nimi za te sterowniki które w momentami codziennie zamulały na moim starej konfiguracji przy pulpicie chcąc sprawdzić , i nie dało się korzystać np zmiany barwy kolorów pulpitu a innymi problemami nie wspomnę np Sterownik ekranu Nvidii uległ awarii ale odzyskał sprawność lub Błąd sprzętu i Bluescreeny przez upośledzone składnik NVIDII i ich chore rozwiązania osłabiając poprzednią generacją sterownikami .
takie ceny kart "zabijają" sensowność grania na PC.
Sama karta kosztuje tyle (lub sporo więcej) co konsola.
Tak więc ilośc graczy na PC znacząco zmaleje.. co oznacza że niektóre tytuły w ogóle nie będą przewidziane na PC... i tak to się będzie samohamować.
Czy wie ktoś z Was, znalazł jakąś wiarygodną informację mówiacą wprost, czy te Quadro RTX posiadają wydajność fp64 na poziomie 1:2 względem fp32 ???
30% kupi jeżeli okaże się że przeskok wydajnościowy w ogólnych zastosowaniach growych jest taki jak między serią 9xx a 10xx - ci czekają na testy.
Reszta nie kupi w tym roku, bo ich nie stać albo grają w sapera, albo mają inne priorytety w życiu.
Całe to dywagowanie nie dotyczy górnictwa - które jest nieprzewidywalne jak to ze spekulacjami bywa.
Druga sprawa czy jak ktoś poznał ceny nowych układów będzie chciał się pozbyć nadal świetnej karty jaką jest 1080 ti...
Hmmm ;)