Antyaliasing z całą pewnością jest jedną z ważniejszych technologii graficznych we współczesnych grach. Sprawia on, że skośne krawędzie obiektów są wygładzane, co bardzo dobrze wpływa na jakość obrazu. Niestety technolgia charakteryzuje się tym, że zużywa ona mnóstwo zasobów karty graficznej. Właśnie dlatego Intel chce przenieść antyaliasing do procesora w postaci technologii MLAA.
Jednak nie będzie to technologia identyczna z tą, jaką znamy z kart graficznych. MLAA używa prostego algorytmu znajdującego przerwy między pikselami, identyfikującego układ pikseli według kształtów zbliżonych do liter Z, U i L oraz łączącego kolory według tych właśnie wzorców. Efekt, który można uznać, jest bardzo dobry, jego jakość jest trochę gorsza niż w przypadku tradycyjnego antyaliasingu, ale wydajność jest o wiele lepsza.
Dzięki temu procesor mógłby się całkowicie zająć wygładzaniem krawędzi, dając większe pole do popisu karcie graficznej w kwestii generowania lepszej grafiki. Technologia ta z całą pewnością przyjmie się w mniej wydajnych od PC-ta urządzeniach takich jak tablety, telefony komórkowe oraz konsole do gier.
Grafika bez wygładzania MLAA
Grafika z wygładzaniem MLAA
Więcej o grach:
- Komputer sam nauczył się grać w Civlization
- Czy w Windows 8 będzie można odpalić gry z Xbox 360?
- Pro Evolution Soccer 2012 - twórcy powielają błędy serii FIFA
- Dlaczego nowy Hitman powstaje już 6 lat
- Ubisoft: Nowa generacja konsol to nie tylko grafika
Źródło: Hothardware, Extremetech
Komentarze
77wy chyba nigdy nie dodacie tych propozycji do zestwaów
Dziwne trochę...
Przez ostatnie lata pracowano nad tym, aby możliwie najbardziej odciążyć procesor i przenieść obliczenia związane z obrazem na kartę graficzną. Teraz czeka nas odwrotna droga ? Chyba, że to tylko dla zintegrowanych układów Intela...
Odciazyc procesor-zadanie kiedy byl 1 rdzen i wystarczal.
widac wyraznie ze Intel ktoremu nie udalo sie z ukladami gma na rynku kart graficznych usilenie na zasadzie "drzwiami mnie wywala to wchodze oknem" probuje przeciagnac przetwarzanie grafiki z GPU na CPU tak jak to bylo w czasach "przed voodoo"
A to zintegrowane bufory ramek w nowych procesorach a to MLAA, ciekawe co jeszcze wymysla
Podzial jest prosty CPU, GPU - powinien jeszcze byc rynek PPU - oddzielnych kart do liczenia fizyki i zestaw gracza powinien miec GPU CPU i PPU
1) FXAA działa na każdej karcie z pixel shaderem 3.0 (AMD / NVidia). MLAA działa tylko na DirectCompute i puki co tylko na kartach AMD
2) FXAA działa w jednym przebiegu dlatego jest szybszy i zużywa mniej pamięci VRAM
3) Jakość jest na tym samym poziomie co MLAA a czasami nawet wyższym niż AAx4 !!!
test z FXAA v1 tutaj
http://www.hardocp.com/article/2011/07/18/nvidias_new_fxaa_antialiasing_technology/1
Obecnie jest już dostępna wersja FXAA v3.11
Zródła są ogólno dostępne na stronie autora
http://timothylottes.blogspot.com/
Klasyczny antialiasing odchodzi pomału do lamusa.
IMO to było do zrobienia już dawno temu w formie postprocessingu specjalizowanym układem bez użycia CPU czy nawet GPU, ale ani ATI ani nVidia się tego nie podjęły, bo pewnie efekty były słabe. Tylko że wtedy były inne rozdzielczości i inne monitory, a teraz na FullHD lekkiej degradacji rozdzielczości mało kto się dopatrzy.
Gra która wygrała za grafikę roku w 2010 a ty będziesz pisał swoje skrzywione teorie.
W 2006 mogliście tylko pomarzyć o takim procesorze jak Cell w PS3.
W 2009 roku postawiłem w szranki twojego intelka i7 za 3000zł i dostał niezle w dupę od Cell'a w transkodowaniu filmów Full HD.
Test osobiście zrobiłem a ty pitolisz o słabej wydajności i stawiasz Cell'a z Pentium4 :) Żenada!