NVIDIA kontratakuje technologią G-Sync
Monitory

NVIDIA kontratakuje technologią G-Sync

przeczytasz w 2 min.

Na spotkaniu w Londynie widzieliśmy w akcji najnowszą nowinkę techniczną NVIIDII czyli G-Sync - "Zieloni" potrafią przekonać sceptyków!

Pomimo coraz większej ekspansji sprzętu mobilnego wojna na karty graficzne w segmencie desktop trwa w najlepsze, a "odwieczna" wymiana ciosów pomiędzy NVIDIĄ i AMD nie ustaje nawet na chwilę. Firma AMD zaprezentowała nowe karty graficzne, które są niezwykle interesujące pod względem stosunku ceny do wydajności. Wiemy, że NVIDIA już szykuje odpowiedź między innymi pod postacią karty GeForce GTX 780 Ti. Jednak obie konsole nowej generacji będą wyposażone w układy AMD, a projekt Mantle umożliwi łatwe portowanie gier z konsol i pełne wykorzystanie możliwości kart graficznych opartych na architekturze GCN - a więc AMD Radeon. NVIDIA musi więc pokazać coś jeszcze. "Zieloni" kontratakują z innej strony, oferując użytkownikom swoich kart technologię G-Sync, która ma rozwiązywać liczne problemy związane z wyświetlaniem obrazu w grach.

W czym jest problem?

  • w skrócie i uproszczeniu - problem dotyczy synchronizacji obrazu tworzonego przez kartę graficzną z obrazem wyświetlanym na ekranie monitora (odświeżaniem)
  • wyłączenie synchronizacji pionowej (V-Sync)  powoduje nieprzyjemne rozrywanie obrazu (tearing)
  • synchronizacja pionowa rozwiązuje problem tearingu, ale powoduje opóźnienia (lag), a spadki poniżej 60 klatek na sekundę widoczne rwania i zacięcia wyświetlania obrazu (stutter)

G-Sync pozwala go rozwiązać...

  • pozwala na zachowanie doskonałej płynności nawet przy 40 klatkach na sekundę - płynnośc obrazu jest porównywalna do stałych 60 klatek na sekundę przy włączonej synchronizacji pionowej
  • pozwala na pełniejsze wykorzystanie możliwości kart graficznych

... ale

  • wymaga monitora wyposażonego w tę technologię lub ulepszenia monitora o układ G-Sync
  • technologia jest przeznaczona wyłącznie dla kart GeForce serii 6xx/7xx od modelu 650 Ti BOOST wzwyż

Lista obsługiwanych kart graficznych: 

  • GTX TITAN, 
  • GTX 780, 
  • GTX 770, 
  • GTX 760, 
  • GTX 690, 
  • GTX 680, 
  • GTX 670, 
  • GTX 660 Ti, 
  • GTX 660, 
  • GTX 650 Ti Boost.

Wymagany jest również sterownik graficzny w wersji R331.58 lub nowszej, oraz systemy operacyjne Windows 7 lub 8/8.1.

Jak na razie jedynym monitorem obsługującym technologię G-Sync jest ASUS VG248QE - firma NVIDIA współpracuje jednak również z firmami Benq, Phillips i ViewSonic, więc wkrótce należy spodziewać się monitorów "G-Sync enabled" również od tych producentów. Zanim pojawią się one na rynku będzie można ulepszyć monitor za pomocą G-Sync DIY Kit Modification. Jak na razie dokładnie nie wiadomo jakie monitory będzie można ulepszyć - na razie w materiałach prasowych wymieniany jest jedynie wspomniany model ASUSA.

Ceny? Monitor ASUSA bez ulepszenia kosztuje 279 USD, a po ulepszeniu o G-Sync ma kosztować 399 USD. Cena zestawu do samodzielnego montażu ma wynosić około 175 USD.

Mieliśmy okazję podziwiać działanie G-Sync podczas prezentacji w Londynie i wrażenia były naprawdę pozytywne - jednak kamera nagrywająca film w 30 klatkach na sekundę nie jest w stanie dobrze oddać wszystkich niuansów działania tej technologii. NVIDIA obiecała dostarczyć pierwsze sample do testów w ciągu paru tygodnii, więc wtedy będziemy mogli zbadać tę technologię bardziej drobiazgowo.

Komentarze

27
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    16
    No prosze, to oprocz karty potrzebowalbym juz tylko zmienic monitor... Rewelacja! :)
    • avatar
      Melman1980
      6
      Kolejna marketingowa zagrywka...Ten monitor ma 144Hz :)
      • avatar
        Konto usunięte
        5
        "(...) więc wkrótce należy spodziewać się monitorów "G-Sync enabled" również od tych producentów" - chyba nie wygląda to zbyt różowo, bo już chodzą po internecie pogłoski, że ASUS ma wyłączność na technologię G-SYNC do 3 kwartału 2014 roku.
        • avatar
          gregotsw
          3
          IMO technologia widmo, o której wielu będzie pisać ale tak naprawdę nikt z tego nie będzie korzystał. Za drogo.

          Gracze wybiorą w tej samej cenie 120Hz TN'ki, a innym włączony v-sync nie robi różnicy i nie zauważą większego input laga. Nie wiem kogo mogłaby ta technologia zainteresować.
          • avatar
            mgkiler
            2
            Mnie ciekawi inna rzecz. Z tego co się dowiedziałem na elektrodzie monitor LCD nie odświeża obrazu z prędkościa 1/f - tylko może odświeżyć całą matryce w czasię np 1ms, a potem 15ms czekać, znów odświeżyc i znów 15ms czekać. Czyli nie tak jak CRT, który non stop powoli odświeża. I tearing jest dlatego, bo jeśli akurat w czasie gdy obraz jest brany z bufora na karcie do monitora (czyli ta pechowa milisekunda w moim przykładzie) akurat gra skończyła rysować klatkę - następuje zamiana buforów (bo mamy 2 bufory - podwójne buforowanie) i dalsza część obrazu jest już brana z nowego bufora zawierającego kolejną klatkę.

            I teraz moje pytanie jest takie. W trybie z włączonym VSync gra czeka aż do następnego odświeżania. Czyli jak mamy 60Hz - i gra nie zdążyła narysować klatki w czasie 1/60s to musi czekać kolejne 1/60s (czyli około 16ms).
            A czemu nie mogła by czekać tylko tej 1ms z mojego przykładu w którym jest obraz przesyłany do monitora. Przecież przez następne ms monitor nic nie robi - nie odświeża non stop - to nie CRT - a przynajmniej tak pisali ludzie na elektrodzie.
            • avatar
              Cacek93
              1
              Nie muszę mieć Nvidi, aby pozbyć się takich problemów :D
              • avatar
                Konto usunięte
                1
                Tak tak ... Biedna niepopularna nvidia która zmarnowała sobie życie ... Wiemy że next gent wyprodukuje AMD :)
                • avatar
                  Konto usunięte
                  1
                  Na dziś dzień taniej i prościej zrobić monitor 120Hz + który oferuje zupełny brak szarpanych klatek oraz laga a do tego nie jest ograniczony tylko do jednego producenta kart grafiki co zawęża rynek zbytu.

                  179USD to zdecydowanie za drogo.
                  Albo ta technologia, bądź co bądź ciekawa, wyraźnie STANIEJE oraz stanie się dostępna DLA WSZYSTKICH albo technologia pozostanie na marginesie jak wiele innych z powodu złej wyceny i separacji standardu.
                  • avatar
                    Konto usunięte
                    -1
                    Drogi interes ale ciekawy :D Hmm, czyżby 780 Ti będzie słabszy od R 290 X i czyżby Maxwelle zapowiadały się nie być tak potężne jak podaje producent? Pasuje, można powiedzieć że Nvidiia chce zatuszować mniejszą wydajność karty monitorem z G-Sync :D i wszystko jasne, już widzę te kampanie reklamowe - Po co ci 60 kl/s od AMD skoro możesz mieć 30 kl/s i monitor z G-sync i nie zauważysz różnicy? :D
                    • avatar
                      Nieznośny
                      -1
                      Pomysł fajny żeby pozbyć się tearingu, ale niech spadają z tym dopłacaniem. To jest dokładnie taki sam numer jak z tymi kartami sieciowymi co miały zmniejszać opóźnienia w grach gdzie ping ma znaczenie... Coś w stylu: "Kup super drogą kartę sieciową i zdobywaj dwa razy więcej fragów w grach!" Mnie tym nie kupili. Gdyby NVIDIA wprowadziła rozwiązanie programowe (o ile takie jest możliwe), to wtedy by mnie przekonali. A tak to skończyło się tylko na fajnym pomyśle,a kiepskim jego wdrożeniu.
                      • avatar
                        Konto usunięte
                        0
                        Tak monitor ma 144 Hz odświeżania
                        ale to nie o to tutaj chodzi , jeśli masz słabą grafikę
                        i odpalasz wymagającą grę np: tombraider
                        To musisz zbić ustawienia na niskie żeby grać bez przycinek
                        na 60 fps , a ta technologia pozwala uzyskać taką samą płynność
                        jak przy 60 fps , gdy masz 40 fps czyli możesz dać ustawienia na
                        high zamiast na low .
                        W skrócie to taki FPS booster "ale nie do końca"
                        • avatar
                          pcfan
                          0
                          Czy na podobnej zasadzie nie działa przypadkiem adaptive v-sync, który jest już obecny od pewnego czasu?
                          • avatar
                            Ruter19
                            0
                            Takie sprawy to ja mam w moim TV 5 letnim pfff
                            • avatar
                              Lukson
                              0
                              Ale to już było i to za czasów Geforce serii 6.... tak, NV40.

                              http://www.leadtek.com/p_images/zoom/195_2Z.jpg