Monitory

Działanie (wideo)

z dnia 17-10-2014

Aby przedstawić różnice w działaniu przy wyłączonej i włączonej synchronizacji pionowej, oraz przy użyciu G-Sync, nakręciliśmy krótki materiał wideo z szybkością 120 klatek na sekundę. W testach wykorzystaliśmy demo technologiczne NVIDIA Pendulum (każdy może je pobrać ze strony NVIDII) oraz grę Watch Dogs.

Przy wyłączonej synchronizacji (V-Sync Off) widoczne jest rozrywanie obrazu (tearing). Przy włączonej synchronizacji (V-Sync Off) zakłócenie płynności (stuttering). G-Sync daje zdecydowanie najlepszą płynność obrazu przy niezauważalnie zwiększonym input-lagu (w stosunku do wyłączonej synchronizacja pionowej).

Na plus rozwiązania NVIDII należy zapisać obraz w grach o niespotykanej dotąd płynności, likwidację tearingu (rozrywania obrazu), stutteringu (zacięcia obrazu) i opóźnień (input-lag). Dzięki temu, że przy użyciu G-Sync obraz przy 40 fps, wygląda tak płynnie jak przy 60 fps (bez użycia tej technologii) możemy pokusić się o zwiększenie rozdzielczości czy detali, bez spadku płynności animacji

Znajdziemy tu również minusy, bowiem monitorów z G-Sync wciąż jest niewiele i prawdopodobnie będą nieco droższe od swoich standarowych odpowiedników (monitory G-Sync mają pojawić się w ofercie Acera, AOC, ASUSa, BenQ oraz Phillipsa). No i oczywiście technologia działa tylko na kartach NVIDIA GeForce od modelu GTX 650 Ti BOOST wzwyż. Na początku mówiono o zestawie do samodzielnego montażu, jednak ostatecznie zrezygnowano z tego pomysłu, najprawdopodobniej ze względu na kłopotliwość tego rozwiązania (utrata gwarancji na monitor). Zestaw do samodzielnego montażu przeznaczony dla monitora ASUS VG248QE prawdopodobnie wciąż będzie dostępny.

Niewątpliwie technologia "Zielonych" działa i to działa świetnie. NVIDIA G-Sync to duży progres, jednak jak widać na powyższym zestawieniu - nie ma róży bez ognia... to znaczy bez kolców. Konkurencja w odpowiedzi wprowadza swoją technologię FreeSync - ta z kolei będzie rozwiazaniem programowym. Mamy nadzieję, że będziemy mogli przetestować ją już wkrótce i porównać oba rozwiązania.

 
  NVIDIA G-Sync
  plusy: 
• obraz w grach o niespotykanej dotąd płynności
• likwidacja tearingu (rozrywania obrazu), stutteringu (zacięcia obrazu) i opóźnień (input-lag)
• większa płynnośc, przy niższym framrate
  minusy: 
• niewielka ilość modeli monitorów z G-Sync
• działa tylko na GeForce GTX 650 Ti BOOST wzwyż
 
marketplace

Komentarze

36
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Ta technologia ma poważną wadę. Trzeba wyłączyć tryb stroboskopowy w 120/144Hz monitorach a to ich główna zaleta eliminująca motion-blurr.
  • avatar
    Czy G-Sync działa na multi-GPU?
  • avatar
    G-Sync ma chyba największą płynność ale wymaga specjalnego przystosowanego monitora a co za tym idzie droższego i działa tylko z najnowszymi konstrukcjami od NVIDI. Także bez szału.
    Zaloguj się
  • avatar
    Ciekaw jestem jak wypada FreeSync w stosungu do G-Sync.
  • avatar
    No i G-Sync powoduje pewien ghoosting, większy im niższa częstotliwość odświeżania panelu, niskim albo niestabilnym framerate. Obraz jest płynny ale się rozmywa. Czas reakcji paneli LCD nie jest wystarczająco szybki. Jestem ciekaw czy ktoś zrobi taki monitor na matrycy IPS, bo o VA to raczej mowy być nie może.
  • avatar
    Dajcie mi 21:9 3440x1440 IPS 120hz z G-Sync a kupię :)

    Dla mnie, największą wadą tej technologii jest to, że wszystkie monitory są na TN. A matryca TN to zło, które już dawno powinno zniknąć z rynku. Wolę dobre kolory IPS/MVA i kąty patrzenia niż płynność TN, ale za to z takimi kolorami, jak samochód zostawiony na rok w pustynnym słońcu
    Zaloguj się
  • avatar
    Po pierwsze, jak to się nie da zrobić? W końcu chodzi o to, że czas rysowania ramki w karcie przekracza czas wyświetlania ramki w monitorze/TV. Czy naprawdę nie da się tego zrobić przez adaptatywne sterowanie detalami, aby rysowanie ramki przez grafę wyrobiło się w ramkach monitora/TV ? tak wiem. współczesne karty tego nie potrafią, więc zamiast tego takie GSYNC wymusza na monitorze asynchroniczne wyświetlanie ramek.
    Pomysł w sumie całkiem dobry, ale pamiętajcie że GSYNC wymusza też stosowanie jednego konkretnego typu złącza. zdaje się że to DP. na DVI czy HDMI nie pójdzie.

    Kiedyś pewnie przyjdzie taki czas, że obraz będzie rysowany w wyświetlaczu, a komp. będzie przekazywał wyłącznie sceny i tekstury. jak na razie to jest SF, ale motorem do działania może być telewizja 3D, i nie chodzi mi o współczesne symulowane 3D, w którym jak się człowiek przemieszcza przez TV, to się obraz dziwnie wygina :)
    Zaloguj się
  • avatar
    Brawo! Takiego rozwiązania potrzebowaliśmy od lat. Osobiście jednak z tego rozwiązania nigdy nie skorzystam jeśli będzie tylko w monitorach dedykowanych dla graczy. Gram na TV i kinie domowym, a dwa monitory służą mi do pracy. Zakup czwartego ekranu, który ustawić bym musiał na stojaku przed TV, żeby grać średnio mi pasuje. Mam nadzieje, że w przyszłości pojawi się zewnętrzne urządzenie odpowiedzialne za taką synchronizacje lub dodatkowa karta rozszerzeń do PC skoro AMD i Nvidia twierdzą, że w karcie graficznej tego nie da się zrobić. Wtedy na pewno coś takiego kupię. Na TV z G-Sync raczej nie liczę. Nawet jak się pojawi to cena będzie z kosmosu, bo dopiszą do nazwy "Gaming".
    Zaloguj się
  • avatar
    Jestem bardzo zadowolony z g-sync
  • avatar
    Tak działa i to wyśmienicie
  • avatar
    Pomimo "fajnosci" rozwiazania - obawiam sie, ze winowajca jest po czesci Windows, ktory po prostu nie nadaje sie jako system do gier, a po czesci producenci FPSow, ktorzy nie optymalizuja silnika dla minFPS. Jako Amigowiec mowie to z prawdziwa satysfakcja ;-) Gry na PC od zawsze byly jakies "kwadratowe" i widzi to kazdy, kto mial wczesniej komputer 8/16-bit, szczegolnie Amige (czemu Amige akurat ? Wystarczy jedno slowo "scroll", ktore z plynnoscia ma az za duzo wspolnego, a z czym wiele PC-towych narzedzi ma problemy nawet do dzisiaj - wlasnie z tytulu Windowsa).
    Rozchodzi sie glownie o to, ze VSync w teorii powinien zalatwic cala sprawe. I kiedys zalatwial - byly monitory CRT, byly Quake'i - kazdemu przy 120Hz chodzilo wszystko super. Ale wowczas gry i programy nie "zabijaly" kodem wydajnosci CPU ani GPU - a dzis tak. I okazuje sie, ze Windows ma problemy z obsluzeniem poszczegolnych przerwan w takiej sytuacji, co w przypadku VSync=On skutkuje stutteringiem. Pomyslcie - jak to mozliwe, by monitor nie byl w stanie wyswietlic kolejnej 1/60 ramki gry, podczas gdy GPU ma ja juz wyliczona ? Panel sterownika nVidii umozliwia wstepne renderowanie nawet kilku klatek, wiec jakim cudem monitor nie moze jej wyswielic, po prostu wyswietlajac poprzednia klatke ? Odpowiedz = Windows i jego "priorytety" w przerwaniach. Drugim - czestszym zjawiskiem sa silniki gier, ktore w testach daja minFPS ponizej VSync monitora. TO jest - sorry - ale pala dla developera, ktory gre pisal ! Trzeba zoptymalizowac te czesci, ktore nie daja rendera pelnej klatki na VSync monitora i wowczas VSync=On sprawe zalatwia i dziala, jak nalezy. Ze input lag ? To sie kupuje monitor 144Hz i detale gry zmniejsza - by silnik znowu byl w stanie "obskoczyc" klatke na VSync. Chyba wlasnie tak to jakos idzie, ze Windows wspolnie z du*nymi koderami gierek "zalatwili" VSync.
  • avatar
    Szkoda że nie jest 4K, i nie ma 240Mhz, przydało by się jeszcze 28 bądź 29 cali, i styłu 2 hdmi
    Zaloguj się
    -1
  • avatar
    Mam monitor AOC G-Sync G2460PG Full HD 24 cale i jest świetnie. Niesamowita płynność w grach i nie potrzebuję graficznego potwora aby obsłużył ten monitor.
  • avatar
    tytuł podkładu muzycznego co to za melodia
  • avatar
    Jak dla mnie największe 2 wady to brat kompatybilności z SLI i z trybem stroboskopowym BoostLight.
  • avatar
    proszę o podanie tytułu podkładu muzycznego
  • avatar
    Super tylko trzeba wymienić monitor na NOWY a ceny ich będą jak na razie wysokie bo jest coś NOWEGO szkoda że nie ma jakiegoś ADAPTERA za odpowiednią cenę ale oto na pewno zadbali producenci monitorów by sprzedaż im się zwiększyła.

    Może jak ta technologia będzie standardem to mój GTX770 będzie już staruszkiem i jak go będę ostawiam na emeryturę to na chwile podepnę do niego taki monitor by mógł się nacieszyć że obsługiwał taki model ;)
  • avatar
    Tak z czystej ciekawości pytam , czy na mojej wykastrowanej gtx660 czyli 650ti też to zadziała ? Bo niby model niższy od gtx650 ti boost ,a architektura 660 .
  • avatar
    Pierwsze słyszę o takim czymś, do tej pory nie zaobserwowałem tych negatywnych efektów które gsync niby eliminuje. Jak dla mnie - zbędna rzecz :)
  • avatar
    Im więcej nie koniecznie znaczy lepiej w FEAR combat mam ponad 1500 klatek ale już powyżej 1000 widać błędy drżą tekstury.
  • avatar
    Taaa, czasem tearing jest spowodowany totalnie lipnym monitorem. Na mojej dziadowskiej iiyamie nic nie pomaga, a tearing mam przez cala szerokosc ekranu i przy kazdym ruchu, a nie tak jak na wideo pokazane.
  • avatar
    MEGA PROBLEM....:?:(

    Witam Wszytskich

    Kieruje do Was pytanie ponieważ już dawno skończyły mi się pomysły co może być nie tak;/ jeśli będziecie w stanie pomóc będę bardzo wdzięczny jestem w stanie nawet przywieźć gdzieś mój komputer, a wiec tak zacznijmy od początku
    konfiguracja mojego sprzętu to:

    JEDNOSTKA CENTRALNA:

    ASUS Z87-EXPERT Z87 LGA1150
    INTEL(R) Core(TM) i7-4770K CPU 3.50GHz
    BE QUIET Dark Rock Pro 2
    KINGSTON HyperX DDR3 4x 4GB 1866 MHz XMP CL9 Genesis
    GAINWARD GeForce GTX9804096MB DDR5/256bit PHANTOM
    SAMSUNG SSD 840EVO 1TB
    BE QUIET! POWER ZONE 850W (BN212) MODULAR 80+ BRONZE

    MONITOR:

    ASUS ROG SWIFT PG278Q 144Hz :D
    Były:
    BENQ XL2420T 144Hz :D
    EIZO FS2434 60Hz - NIE POLECAM...

    PERYFERIA:

    LOGITECHG700S
    LOGITECH K800 Wireless Illuminated
    LOGITECHG930 Wireless Gaming Headset
    LOGITECH G51

    SYSTEM:

    WINDOWS 8.1 Pro X64
    Wersja sterowników 344.75


    Problem polega na tym że podczas gry np. w BF-4 czy Diablo 3 następuje moment mignięcia ekranu i monitor się wygasza pokazuje się no signal i tylko reset jest w stanie go ponownie wzbudzić, jest tez czasem tak ze mignie parę razy i traci ostrość już nie mam siły ani pomysłów co możne być nie tak....
    Co sprawdzałem i co zrobiłem:
    Monitor i kartę graficzna zabrałem do kolegi i zrobiliśmy tak: jego komputer i grafika GTX 780
    +moj monitor+ kabel DSP=>DSP dzialalo bez zarzutu potem jego komputer + moja grafika i monitor+kabel DSP=> mini DSP dzialalo bez zarzutu no to potem spoworotem moj komputer grafika i monitor i znowu bylo to samo, to podjalem decyzje o formacie po formacie znowu jest to samo....nawet podczas pracy na pulpicie instalowanie jakiś pierdol po formacie

    tu ludzie chyba maja coś podobnego

    http://rog.asus.com/forum/showthread.php?52618-ROG-Swift-and-Nvidia-344-16-Displayport-issue/page2&s=1f21caadd155d81e1cf14ba371b73d80


    Proszę o pomoc nawet jestem skłonny komuś zapłacić za diagnozę
  • avatar
    A cena tego monitora tak wysoka z powodu G-Sync? Czy może dlatego, że to monitor dla "graczy". Bo jeśli tak ma to wyglądać to chyba tylko "zawodowi gracze" będą coś takiego kupowali. Mój LG Flatron W2353V chyba nigdy mnie nie opuści jeśli cena monitorów z G-Sync będzie tak wysoka. :D Zresztą nie mogę narzekać.