Karty graficzne

Intel wprowadzi antyaliasing MLAA liczony przez CPU

przeczytasz w 1 min.

Antyaliasing z całą pewnością jest jedną z ważniejszych technologii graficznych we współczesnych grach. Sprawia on, że skośne krawędzie obiektów są wygładzane, co bardzo dobrze wpływa na jakość obrazu. Niestety technolgia charakteryzuje się tym, że zużywa ona mnóstwo zasobów karty graficznej. Właśnie dlatego Intel chce przenieść antyaliasing do procesora w postaci technologii MLAA.

Jednak nie będzie to technologia identyczna z tą, jaką znamy z kart graficznych. MLAA używa prostego algorytmu znajdującego przerwy między pikselami, identyfikującego układ pikseli według kształtów zbliżonych do liter Z, U i L oraz łączącego kolory według tych właśnie wzorców. Efekt, który można uznać, jest bardzo dobry, jego jakość jest trochę gorsza niż w przypadku tradycyjnego antyaliasingu, ale wydajność jest o wiele lepsza.
 

Technologia MLAA wygładzająca krawędzie w bardzo prosty sposób

Dzięki temu procesor mógłby się całkowicie zająć wygładzaniem krawędzi, dając większe pole do popisu karcie graficznej w kwestii generowania lepszej grafiki. Technologia ta z całą pewnością przyjmie się w mniej wydajnych od PC-ta urządzeniach takich jak tablety, telefony komórkowe oraz konsole do gier.
 

grafika bez MLAA
Grafika bez wygładzania MLAA

grafika z MLAA
Grafika z wygładzaniem MLAA
 

Więcej o grach:

Źródło: Hothardware, Extremetech

Komentarze

77
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    0
    No i elegancko ,wtedy karty rozwina jeszcze bardziej skrzydełka ;d
    • avatar
      Konto usunięte
      0
      No wlasnie :D Elegancko.
      • avatar
        angelboy
        0
        MLAA jak dla mnie to takie mydlenie oczu trochę ...
        • avatar
          Konto usunięte
          0
          Dobry pomysł.
          • avatar
            Konto usunięte
            0
            Ale jakieś konkrety poproszę, jakiś program trzeba zainstalować? Nvidia ma zrobić nowe stery czy trzeba nowego procka kupić?(najbardziej prawdopodobne)
            • avatar
              Konto usunięte
              0
              Ciekawe tylko jak to w praktyce bedzie .. bo cos nie wierze tym speca od Intela ..zawsze tylko obiecuja. Jest takie powiedzenie (teoretycznie miałem se pierdnac a w praktyce sie zesrałem) ;d
              • avatar
                Konto usunięte
                0
                Intel jest przezabawny w tych kombinacjach z grafika. Niby wielka firma, ktora nie potrafi zbudowac wydajnego chipsetu GFX. MLAA to pomylka, czcionki na ekranie, elementy GUI wygladaja nieakceptowalnie.
                • avatar
                  Konto usunięte
                  0
                  do redakcji

                  wy chyba nigdy nie dodacie tych propozycji do zestwaów
                  • avatar
                    Skaza
                    0

                    Dziwne trochę...

                    Przez ostatnie lata pracowano nad tym, aby możliwie najbardziej odciążyć procesor i przenieść obliczenia związane z obrazem na kartę graficzną. Teraz czeka nas odwrotna droga ? Chyba, że to tylko dla zintegrowanych układów Intela...

                    • avatar
                      KamilSTI
                      0
                      Ciekawe jak będą wyglądać temperatury.... zwłaszcza w stresie.
                      • avatar
                        dawiduser143
                        0
                        Fakt,ale procesory maja coraz wiecej rdzeni,watkow,a oprogramowanie ich nie uzywa niestety:(
                        Odciazyc procesor-zadanie kiedy byl 1 rdzen i wystarczal.
                        • avatar
                          Konto usunięte
                          0
                          Gdyby można było wygładzić w ten sposób każdą grę która nie wspiera AA to rozwiązanie byłoby fajne, ale znając życie w połowie gier nie będzie działać albo będzie powodować błędy w obrazie.
                          • avatar
                            wstrzasmen
                            0
                            nie jest to dobry pomysl

                            widac wyraznie ze Intel ktoremu nie udalo sie z ukladami gma na rynku kart graficznych usilenie na zasadzie "drzwiami mnie wywala to wchodze oknem" probuje przeciagnac przetwarzanie grafiki z GPU na CPU tak jak to bylo w czasach "przed voodoo"

                            A to zintegrowane bufory ramek w nowych procesorach a to MLAA, ciekawe co jeszcze wymysla

                            Podzial jest prosty CPU, GPU - powinien jeszcze byc rynek PPU - oddzielnych kart do liczenia fizyki i zestaw gracza powinien miec GPU CPU i PPU
                            • avatar
                              Konto usunięte
                              0
                              FXAA jest lepsze od MLAA.
                              1) FXAA działa na każdej karcie z pixel shaderem 3.0 (AMD / NVidia). MLAA działa tylko na DirectCompute i puki co tylko na kartach AMD
                              2) FXAA działa w jednym przebiegu dlatego jest szybszy i zużywa mniej pamięci VRAM
                              3) Jakość jest na tym samym poziomie co MLAA a czasami nawet wyższym niż AAx4 !!!

                              test z FXAA v1 tutaj
                              http://www.hardocp.com/article/2011/07/18/nvidias_new_fxaa_antialiasing_technology/1

                              Obecnie jest już dostępna wersja FXAA v3.11
                              Zródła są ogólno dostępne na stronie autora

                              http://timothylottes.blogspot.com/

                              Klasyczny antialiasing odchodzi pomału do lamusa.
                              • avatar
                                hideo
                                0
                                mi wystarcza AAx2, który wcale kosmicznej mocy nie pożera z grafy, oczywiście wyższe tryby są lepsze ale i tak nie jest idealnie przez to, że rozdzielczość FullHD nie jest idealna i nadal siedząc przed monitorem w grach można dopatrzyć się pixeli i tzw. schodków na krzywych nawet z włączonym AAx8 czy też MLAA, być może kiedyś AA nie będzie wcale potrzebny jeśli za ileś lat będziemy mieć rozdzielczość 8kX4k i pixele będą tak maleńkie, że AA nie będzie nikomu potrzebny
                                • avatar
                                  Konto usunięte
                                  0
                                  Aa ważna sprawa, bo piksele gryza i są wielkości kartofli we współczesnych rozdzielczościach nie dając spokojnie pograć :)
                                  • avatar
                                    Irrlicht
                                    0
                                    Trik polega na tym, że to nie jest AA, tylko selektywne rozmywanie z adaptywną maską. Będzie dobrze działało na dużych kontrastach, tam gdzie najbardziej schodki rażą, a od pewnego progu czułości wcale.

                                    IMO to było do zrobienia już dawno temu w formie postprocessingu specjalizowanym układem bez użycia CPU czy nawet GPU, ale ani ATI ani nVidia się tego nie podjęły, bo pewnie efekty były słabe. Tylko że wtedy były inne rozdzielczości i inne monitory, a teraz na FullHD lekkiej degradacji rozdzielczości mało kto się dopatrzy.
                                    • avatar
                                      Konto usunięte
                                      0
                                      na cellu juz od dawna robia mlaa :)
                                      • avatar
                                        Konto usunięte
                                        0
                                        Jak dla ciebie MLAA w takiej grze jak God of War3 na PS3 jest kiepski to zmień okulary.
                                        Gra która wygrała za grafikę roku w 2010 a ty będziesz pisał swoje skrzywione teorie.

                                        W 2006 mogliście tylko pomarzyć o takim procesorze jak Cell w PS3.
                                        W 2009 roku postawiłem w szranki twojego intelka i7 za 3000zł i dostał niezle w dupę od Cell'a w transkodowaniu filmów Full HD.
                                        Test osobiście zrobiłem a ty pitolisz o słabej wydajności i stawiasz Cell'a z Pentium4 :) Żenada!
                                        • avatar
                                          Konto usunięte
                                          0
                                          Pewnie to już było w brazosie prawie rok temu - ten intel kopiuje tylko dobre pomysły konkurencji :)