Karty graficzne

Intel wprowadzi antyaliasing MLAA liczony przez CPU

z dnia
Dawid Kosiński | Redaktor serwisu benchmark.pl
Autor: Dawid Kosiński
77 komentarzy Dyskutuj z nami

Antyaliasing z całą pewnością jest jedną z ważniejszych technologii graficznych we współczesnych grach. Sprawia on, że skośne krawędzie obiektów są wygładzane, co bardzo dobrze wpływa na jakość obrazu. Niestety technolgia charakteryzuje się tym, że zużywa ona mnóstwo zasobów karty graficznej. Właśnie dlatego Intel chce przenieść antyaliasing do procesora w postaci technologii MLAA.

Jednak nie będzie to technologia identyczna z tą, jaką znamy z kart graficznych. MLAA używa prostego algorytmu znajdującego przerwy między pikselami, identyfikującego układ pikseli według kształtów zbliżonych do liter Z, U i L oraz łączącego kolory według tych właśnie wzorców. Efekt, który można uznać, jest bardzo dobry, jego jakość jest trochę gorsza niż w przypadku tradycyjnego antyaliasingu, ale wydajność jest o wiele lepsza.
 

Technologia MLAA wygładzająca krawędzie w bardzo prosty sposób

Dzięki temu procesor mógłby się całkowicie zająć wygładzaniem krawędzi, dając większe pole do popisu karcie graficznej w kwestii generowania lepszej grafiki. Technologia ta z całą pewnością przyjmie się w mniej wydajnych od PC-ta urządzeniach takich jak tablety, telefony komórkowe oraz konsole do gier.
 

grafika bez MLAA
Grafika bez wygładzania MLAA

grafika z MLAA
Grafika z wygładzaniem MLAA
 

Więcej o grach:

Źródło: Hothardware, Extremetech

Komentarze

77
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    No i elegancko ,wtedy karty rozwina jeszcze bardziej skrzydełka ;d
  • avatar
    Konto usunięte
    No wlasnie :D Elegancko.
  • avatar
    angelboy
    MLAA jak dla mnie to takie mydlenie oczu trochę ...
  • avatar
    Konto usunięte
    Dobry pomysł.
  • avatar
    Konto usunięte
    Ale jakieś konkrety poproszę, jakiś program trzeba zainstalować? Nvidia ma zrobić nowe stery czy trzeba nowego procka kupić?(najbardziej prawdopodobne)
  • avatar
    Konto usunięte
    Ciekawe tylko jak to w praktyce bedzie .. bo cos nie wierze tym speca od Intela ..zawsze tylko obiecuja. Jest takie powiedzenie (teoretycznie miałem se pierdnac a w praktyce sie zesrałem) ;d
  • avatar
    Konto usunięte
    Intel jest przezabawny w tych kombinacjach z grafika. Niby wielka firma, ktora nie potrafi zbudowac wydajnego chipsetu GFX. MLAA to pomylka, czcionki na ekranie, elementy GUI wygladaja nieakceptowalnie.
  • avatar
    Konto usunięte
    do redakcji

    wy chyba nigdy nie dodacie tych propozycji do zestwaów
  • avatar
    Skaza

    Dziwne trochę...

    Przez ostatnie lata pracowano nad tym, aby możliwie najbardziej odciążyć procesor i przenieść obliczenia związane z obrazem na kartę graficzną. Teraz czeka nas odwrotna droga ? Chyba, że to tylko dla zintegrowanych układów Intela...

  • avatar
    KamilSTI
    Ciekawe jak będą wyglądać temperatury.... zwłaszcza w stresie.
  • avatar
    dawiduser143
    Fakt,ale procesory maja coraz wiecej rdzeni,watkow,a oprogramowanie ich nie uzywa niestety:(
    Odciazyc procesor-zadanie kiedy byl 1 rdzen i wystarczal.
  • avatar
    Konto usunięte
    Gdyby można było wygładzić w ten sposób każdą grę która nie wspiera AA to rozwiązanie byłoby fajne, ale znając życie w połowie gier nie będzie działać albo będzie powodować błędy w obrazie.
  • avatar
    wstrzasmen
    nie jest to dobry pomysl

    widac wyraznie ze Intel ktoremu nie udalo sie z ukladami gma na rynku kart graficznych usilenie na zasadzie "drzwiami mnie wywala to wchodze oknem" probuje przeciagnac przetwarzanie grafiki z GPU na CPU tak jak to bylo w czasach "przed voodoo"

    A to zintegrowane bufory ramek w nowych procesorach a to MLAA, ciekawe co jeszcze wymysla

    Podzial jest prosty CPU, GPU - powinien jeszcze byc rynek PPU - oddzielnych kart do liczenia fizyki i zestaw gracza powinien miec GPU CPU i PPU
  • avatar
    Konto usunięte
    FXAA jest lepsze od MLAA.
    1) FXAA działa na każdej karcie z pixel shaderem 3.0 (AMD / NVidia). MLAA działa tylko na DirectCompute i puki co tylko na kartach AMD
    2) FXAA działa w jednym przebiegu dlatego jest szybszy i zużywa mniej pamięci VRAM
    3) Jakość jest na tym samym poziomie co MLAA a czasami nawet wyższym niż AAx4 !!!

    test z FXAA v1 tutaj
    http://www.hardocp.com/article/2011/07/18/nvidias_new_fxaa_antialiasing_technology/1

    Obecnie jest już dostępna wersja FXAA v3.11
    Zródła są ogólno dostępne na stronie autora

    http://timothylottes.blogspot.com/

    Klasyczny antialiasing odchodzi pomału do lamusa.
  • avatar
    hideo
    mi wystarcza AAx2, który wcale kosmicznej mocy nie pożera z grafy, oczywiście wyższe tryby są lepsze ale i tak nie jest idealnie przez to, że rozdzielczość FullHD nie jest idealna i nadal siedząc przed monitorem w grach można dopatrzyć się pixeli i tzw. schodków na krzywych nawet z włączonym AAx8 czy też MLAA, być może kiedyś AA nie będzie wcale potrzebny jeśli za ileś lat będziemy mieć rozdzielczość 8kX4k i pixele będą tak maleńkie, że AA nie będzie nikomu potrzebny
  • avatar
    Konto usunięte
    Aa ważna sprawa, bo piksele gryza i są wielkości kartofli we współczesnych rozdzielczościach nie dając spokojnie pograć :)
  • avatar
    Irrlicht
    Trik polega na tym, że to nie jest AA, tylko selektywne rozmywanie z adaptywną maską. Będzie dobrze działało na dużych kontrastach, tam gdzie najbardziej schodki rażą, a od pewnego progu czułości wcale.

    IMO to było do zrobienia już dawno temu w formie postprocessingu specjalizowanym układem bez użycia CPU czy nawet GPU, ale ani ATI ani nVidia się tego nie podjęły, bo pewnie efekty były słabe. Tylko że wtedy były inne rozdzielczości i inne monitory, a teraz na FullHD lekkiej degradacji rozdzielczości mało kto się dopatrzy.
  • avatar
    Konto usunięte
    na cellu juz od dawna robia mlaa :)
  • avatar
    Konto usunięte
    Jak dla ciebie MLAA w takiej grze jak God of War3 na PS3 jest kiepski to zmień okulary.
    Gra która wygrała za grafikę roku w 2010 a ty będziesz pisał swoje skrzywione teorie.

    W 2006 mogliście tylko pomarzyć o takim procesorze jak Cell w PS3.
    W 2009 roku postawiłem w szranki twojego intelka i7 za 3000zł i dostał niezle w dupę od Cell'a w transkodowaniu filmów Full HD.
    Test osobiście zrobiłem a ty pitolisz o słabej wydajności i stawiasz Cell'a z Pentium4 :) Żenada!
  • avatar
    Konto usunięte
    Pewnie to już było w brazosie prawie rok temu - ten intel kopiuje tylko dobre pomysły konkurencji :)