Caustic Graphics - o tej firmie na pewno mało kto słyszał ale w najbliższym czasie może się to zmienić. CG planuje bowiem wejście na rynek kart graficznych. Co ciekawe, jej przedstawiciele twierdzą (część z nich to byli pracownicy Intela, Nvidii bądź AMD / ATi), iż ich konstrukcje będą dwudziestokrotnie wydajniejsze od najwydajniejszych układów, które dzisiaj znamy.
Stworzone przez firmę układy graficzne mają przetwarzać grafikę korzystając wyłącznie z raytracingu - technologii pozwalającej na uzyskanie realistycznie wyglądającej grafiki 3D. Wcześniej to rozwiązanie miało jedną, dość istotną wadę: niską wydajność. Przedstawiciele CG twierdzą, że udało jej się obejść wszelkie bariery i uzyskać ogromną wydajność niedrogiego GPU.
Pierwsza generacja kart graficznych Caustic Graphics, nazwana Caustic One ma trafić na rynek jeszcze w tym roku. Kolejnych informacji powinniśmy spodziewać się niebawem - możliwe, że jeszcze w kwietniu.
Czy tak będzie wyglądała karta Caustic Graphics
Źródło: cnet.com
Komentarze
892. za rok i tak nie bedzie w co grac na PC
a Bitboys jeszcze tworza swoje Glaze 3D?
Jeżeli to prawda to niska cena i ATI i NVIDIA znikają z rynku :DDD
a) odnosi się do renderingu pod dobranymi aplikacjami
b) nie wiadomo do jakiej karty porównują
c) nawet na stronie producenta pisze że produkt opiera się głównie na optymalizacji sterowników
d) wystarczy więc popatrzeć na ostatnio wypuszczonego na rynek FirePro V8700 żeby zobaczyć że karta fizycznie identyczna z 4870 potrafi być o 600% szybsza w specjalistycznych zastosowaniach (Maya)
Myśle że oni mają doświadczenie jakieś ;)
Może to niezbyt chrześcijańskie ale nie uwierze póki nie zobaczę jak ta karta działa w praktyce (czytaj: ile fps-ów)
Gdyby wszyscy mieli takie podejście to byśmy pewnie teraz żyli w Średniowieczu....
http://en.wikipedia.org/wiki/Ray_tracing_(graphics)
Jeśli chodzi o możliwości tego ray tracingu to na przeszkodzie stały do tej pory przede wszystkim wymagania sprzętowe. Jeżeli to wszystko prawda to sądzę, że najdalej za 3-4lata ray tracing będzie powszechnie wykorzystywany w nowych grach, a jego wykorzystanie w programach graficznych będzie przebiegać błyskawicznie w porównaniu z tym co mamy obecnie.
Oczywiście to wszystko wiąże się z niesłychanie ogromnym przełomem jeśli chodzi o realne wyświetlanie gier i nie tylko gier (zastosowanie również w filmach).
Czyżby czekał nas skok do "nowej" ery gier i wyświetlania grafiki...
Myślę, że tak ale jeszcze przyjdzie nam długo poczekać.
Zapraszam do przeczytania tego krótkiego artykułu:
http://kopalniawiedzy.pl/ray-tracing-CPU-GPU-przelom-Caustic-Graphics-7011.html
Co do Larrabee to szykuje się kolejna porażka po Itanium. Ten procesor ma podobną architekturę do Cell, tylko że jest wykonany w prymitywny sposób. Procesor Cell projektowano od zera (nie licząc jądra PowerPC), i tam wszytko zostało do siebie perfekcyjnie dopasowane. Tymczasem Larrabee jest prostackim połączeniem kilkunastu przestarzałych Pentuim - ów, trochę podrasowanych jakąś rozszerzoną wersją SSE oraz pamięci podręcznej. Niestety, ale obydwa te procesory - Cell i Larrabee - kompletnie nie nadają się do DirectX, a forsowanie ray tracingu raczej nie wypali.
Bylo by bardzo milo, zobaczyc karte-akcelerator do takich obliczen, ale jakos nie widac nic takiego. Przyczyna jest bardzo prosta, kazde swiatlo to iles tam promieni, zalozumy 200, kazdy promiec=n odbijajaca sie od jakiejs powierzchni zmienia nasilenie, ubarwienie. Bo moze byc czescowo wchloniety przez ubranie, i odbijac sie od lustra z jedynie 50% spadkiem sily. Do tego moze zmienic kolor. Pozniej taki promien musi sobie poleciec dalej, no i tu trzeba obliczyc, jak dobija sie od danej powierzchni, w ktorym kierunku poleci, az natrafi na kolejna przeszkode, i tak az do jego kompletnego znikniecia. Za kazdym razem zmieniajac wyglad tego, na co pada rozjasniajac to, i zmieniajac kolor tego materialu. Zakladamy ze takich promieni jest na jedno swiatlo powiedzmy tysiac (w rzeczywistosci jest "troszke" wiecej ;-) ). Wbijamy kilkanascie zrodel swiatla i to wszystko musi byc poobliczane. Poza tym w zaleznosci od koloru na jedna powierzchnie moze padac kilka innych promieni, w roznej kolejnosci. To wszystko musi wyliczayc taka karta. I mysle ze jeszcze wiele lat minie zanim cos takiego ujrzymy w grach.
bla bla bla, lepsza grafika, lepsza wydajnosc?! niemozliwe.
bla bla bla, rewolucja w cieniowaniu?! niemozliwe.
dokladnie jak napisal rszuba. jesli by isc Waszym tokiem rozumowania (przynajmniej wiekszosci z Was), nadal siedzielibysmy w sredniowieczu.
Reagujecie na takie nowosci (moze okaze sie sukcesem moze klapa, to nie jest istotne) tak samo jak ludzie reagowali na poczatku 20 wieku na slowo "samolot".
Spodziewacie sie ze do konca swiata ATI I NVIDIA, tylko w kolko beda "odsmazac" swoje uklady i nikt nie wprowadzi nic rewolucyjnego??!! Zalamujecie mnie. Okazcie troche wiary. Bede sie z Was smial, jak sie okaze ze ten uklad bedzie naprawde rewolucyjny:-)
Pozdrawiam
Poza tym jestem po stronie optymistów i również mam nadzieję, że nowej firmie uda się osiągnąc sukces.
Tak samo jest z obecna rgafika.. zaczeto robic ja w epwnym keirunku czyli DX i OPEN GL no i tak to twa i zmienaija sie ylko epwen funkcje ale kompatybilosc wsteczna musi byc zachowana.. a rpawda taka ze jkby przeprojektowac wszystko od nwoa akrty procsory, itd zrobic cos zupelnie nowego i anpsiac do tego zupelnie nowe gry to grafika by byla pewnie 10 krotnie ladniejsaz niz obecnie...
Za to ten niby screen karty to niwporozumienie, co ona nawet radiatorów nie ma ani ukłądu chłodzenia?
"Pierwsza generacja kart graficznych Caustic Graphics, nazwana Caustic One"
Z tekstu wynika że to"karta graficzna" a nie jakiś dodatek w slot-więc powinny być samowystarczalne.
cholera wie co to będzie ale cieszyłbym się jakby coś innego w ofercie się pojawiło.Zawsze jakaś atrakcja.
A przełom w zasadzie moim zdaniem musi być. Jest to wymuszone ekonomią. A jak coś jest wymuszone ekonomią to będzie. Prędzej czy później.
Pamiętam czasy Kyro - miał być hit wyszło gówno, później S3 wyskoczyło z Chrome - też niewypał. Matrox Parhelia też miał bić na głowę wydajnością ówczesnego GeForce i jakoś nic z tego nie wyszło.
http://kopalniawiedzy.pl/reptile/m/45/platform_chart-df937cafffc600c1f3d7b932727a5679.gif