Monitory

Zacięcia i opóźnienia obrazu? Technologia Nvidia G-SYNC rozwiąże problem

przeczytasz w 1 min.

Prace nad G-SYNC trwały wiele lat i ostatecznie stworzono rozwiązanie, które synchronizuje częstotliwość odświeżania z prędkością renderowania.

Nvidia G-SYNC technologia

Firma Nvidia zaprezentowała na konferencji w Montrealu technologię G-SYNC, która pozwoli na lepszą synchronizację karty graficznej i monitora, rozwiązując przy tym problem „rwań”, zacięć i opóźnień w wyświetlaniu obrazu.

Od samego początku istnienia monitorów komputerowych, odświeżały one obraz ze stałą wartością, która najczęściej wynosiła 60 razy na sekundę (herców). Ze względu na dynamiczny charakter gier wideo, liczba klatek na sekundę renderowanych przez karty graficzne podczas gry ulega ciągłym zmianom. Próby zsynchronizowania monitora z kartą graficzną skutkują powstaniem zakłóceń obrazu. Włączenie synchronizacji pionowej (V-SYNC) eliminuje ten efekt kosztem wprowadzenia opóźnień w wyświetlaniu obrazu i spowolnień w grze, ponieważ częstotliwości odświeżania karty graficznej oraz monitora są różne. Producent znalazł jednak receptę na ten problem.

Prace nad technologią G-SYNC trwały wiele lat i ostatecznie stworzono rozwiązanie, które synchronizuje częstotliwość odświeżania monitora z prędkością renderowania karty graficznej - w efekcie obrazy pojawiają się na monitorze "natychmiast" po wyrenderowaniu, obiekty są wyraźniejsze, a gry płynniejsze. Nowa technologia eliminuje kompromis pomiędzy płynnością a dokładnością. Dzięki niej karta graficzna jest zsynchronizowana z monitorem, bez względu na ilość wyświetlanych klatek, sprawiając że gry komputerowe wyglądają lepiej. Do jej działania wymagane jest zintegrowanie w monitorze modułu G-SYNC, który współpracuje ze sprzętem i oprogramowaniem zaimplementowanym w kartach graficznych bazujących na architekturze Kepler (GeForce GTX 650 Ti Boost i wyższe).

Nvidia G-SYNC moduł zdjęcie
Moduł Nvidia G-SYNC

„Nasza troska o najwyższą jakość gier komputerowych zaowocowała stworzeniem technologii G-SYNC”, powiedział Jeff Fisher, wiceprezes jednostki biznesowej GeForce w firmie Nvidia. „Ta rewolucyjna technologia eliminuje artefakty, które do tej pory przeszkadzały graczom w czerpaniu pełnej przyjemności z gier. Gdy zagrasz na monitorze G-SYNC, nigdy nie zechcesz wrócić do starszych rozwiązań.”

ASUS VG248QE monitor specyfikacja G-SYNC
Porównanie specyfikacja monitora ASUS VG248QE bez i z modułem Nvidia G-SYNC

Wielu wiodących producentów monitorów uwzględniło już technologią G-SYNC w ofercie produktowej zaplanowanej na 2014 rok. Pierwszymi, którzy wdrożą to rozwiązanie są firmy ASUS, BenQ, Philips i ViewSonic.

Źródło: Nvidia, GeForce, Engadget

Komentarze

52
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    8
    Szczerze dla zwykłego gracza kompletnie nie opłaca się w to inwestować szkoda, że będzie to dostępne tylko w droższych monitorach i wydaje mi sie, że mogło by się to rozwiązać kupując takie coś osobno ;)
    • avatar
      Konto usunięte
      8
      Oczywiście żeby to zadziałało to trzeba mieć geforca. Nvidia = zamnknięta impreza
      • avatar
        Konto usunięte
        6
        Asus już ogłosił swój pierwszy model monitora z G-Sync. Oczywiście to aktualizacje istniejącego już na rynku modelu.
        Na czym polega fail? Otóż są dwa:
        1. To monitora domyślnie pracujący z 144Hz. Także po co mu ten G-Sync...
        2. Do pierwotnej ceny doliczyli +110$.

        Nie dziękuję :x
        • avatar
          Cacek93
          3
          Dlatego nigdy nie gram na V-sync, input lag jest dla mnie bardzo irytujący i uniemożliwia rozgrywkę. Wolę już screen tearing, niż te opóźnienie.
          Jednak dzięki 120Hz problemy te praktycznie mnie nie dotyczą...
          • avatar
            shamoth
            2
            Tia, GPU nie wyrabia to spowolnimy monitor i osiągniemy płynne i zsynchronizowane 30fps/Hz bez tearing'u. Obłożymy do dobrym PR'em, uargumentujemy i geymerzy to kupią, a problem stuttering'u/czkawki nadal nie rozwiązany, nie wspominam o jeszcze bardziej odczuwalnym input lagu przy takim rozwiązaniu.
            Dla mnie 50fps to minimum żebym nie odczuwał efektu gumy/opóźnienia między moją reakcją na to co widzę a wyświetlanym obrazem i nie odchodził od kompa skołowany i "odklejony" od rzeczywistości.
            Niestety nic nie przebije pod względem opóźnień CRT, kiedyś ustawiało się minimum 75Hz, konfigurowało grę na zbliżony fps i jazda. A teraz co z tego że mamy niemigoczące LCD przy 60Hz jak w najlepszym wypadku mamy opóźnienie 1klatki, przy dobrym sterowniku matrycy, a w gorszym 2-3 klatek.
            Chyba za taki rozwój sytuacji należy podziękować gaymerom, którzy prawdziwy dynamiczny gaming zamienili na flegmatyczne rozgrywki ograniczające się do wciskania 4 przycisków odpowiedzialnych za umiejętności.
            Z przykrością muszę stwierdzić że od kilku lat obserwuję degradację tego środowiska, coraz rzadziej spotyka się ludzi którzy potrafią dostosować się do sytuacji, gramy wg scenariusza/skryptu a jak się coś rypnie to gubimy się jak dziecko we mgle.
            Kiedyś grało się w CS'a, Quakana na Aurealu na słuch a teraz mało kto przywiązuję wagę do poprawnego pozycjonowania dźwięku bo ważniejsza jest pełna wodotrysków oprawa wizualna...
            Tak wiem, powtarzam się na każdym portalu ale coraz bardziej jestem podirytowany wycieraniem sobie gęby gamingiem i wyłudzanie kasy za rozwiązania z d... które nijak nie przykładają się do rozwoju gamingu a jedynie prowadzą do degradacji środowiska... no chyba że zmierzamy w kierunku rozgrywek TB jak w Falloucie ;]
            • avatar
              Konto usunięte
              1
              Jeżeli to ma być kolejny wynalazek na miarę Adaptive Sync to podziękuję, postoję obok i poczekam. Zdecydowanie bardziej wolę stabilny obraz z włączonym stałym Vsync.
              • avatar
                mgkiler
                1
                Kilka miesięcy temu na elektrodzie właśnie pisałem o dokładnie takim moim pomyśle. Aby monitor odświeżał obraz dokładnie wtedy, kiedy gra skończy rysować - czyli aby czekał.

                Także nie tylko nVidia na to wpadła. Po proszę 10% od zysków :)
                • avatar
                  Mulciber
                  0
                  Fajnie, fajnie. Tylko ja mam monitor za 400zł z odświeżaniem 60Hz, i czerpię z gry na nim z przyjemnością i nic mi nie przeszkadza?
                  • avatar
                    Konto usunięte
                    -2
                    Kolejna niepotrzebna sciema marketingowa zaraz obok physixa
                    • avatar
                      mjwhite
                      0
                      to oni już mieli taki prototypowy monitor, czy dali tą płytkę gdzieś po drodze na kablach?
                      • avatar
                        Konto usunięte
                        0
                        Pomysł ciekawy ale widzę dwa problemy:
                        Wytrzymałość matryc na ciągłe wahania Hz.
                        Duże spadki FPS (tak z 50 do 20). Przy 20 FPS = 20Hz? Jakoś nie mogę sobie takiego obrazu wyobrazić.

                        Ja się pytam: Po co było przechodzić na LCD? CRT nie miało tylu problemów.
                        • avatar
                          Kam9000
                          0
                          Pozostaje kwestia opóźnienia myszy. Rozumiem, że to technologia dla graczy. Niby pozwala na płynny obraz np. w 30 klatkach. Ale co mi po tym jak opóźnienie myszy jest straszne. Grając w Fpsy w 60 klatkach tak się przyzwyczaiłem do braku opóźnienia, że nie wyobrażam sobie powrotu do 30 klatek. Większość hardcorowych graczy patrzy właśnie na to, a nie na ostrość i mega płynność obrazu. Więc dużego sukcesu tej technologi nie wróżę, a cena widzę zaporowa za taki monitor :3