NVIDIA kontratakuje technologią G-Sync Monitory

NVIDIA kontratakuje technologią G-Sync

opublikowano przez Marcin Jaskólski w dniu 2013-10-28

Na spotkaniu w Londynie widzieliśmy w akcji najnowszą nowinkę techniczną NVIIDII czyli G-Sync - "Zieloni" potrafią przekonać sceptyków!

Pomimo coraz większej ekspansji sprzętu mobilnego wojna na karty graficzne w segmencie desktop trwa w najlepsze, a "odwieczna" wymiana ciosów pomiędzy NVIDIĄ i AMD nie ustaje nawet na chwilę. Firma AMD zaprezentowała nowe karty graficzne, które są niezwykle interesujące pod względem stosunku ceny do wydajności. Wiemy, że NVIDIA już szykuje odpowiedź między innymi pod postacią karty GeForce GTX 780 Ti. Jednak obie konsole nowej generacji będą wyposażone w układy AMD, a projekt Mantle umożliwi łatwe portowanie gier z konsol i pełne wykorzystanie możliwości kart graficznych opartych na architekturze GCN - a więc AMD Radeon. NVIDIA musi więc pokazać coś jeszcze. "Zieloni" kontratakują z innej strony, oferując użytkownikom swoich kart technologię G-Sync, która ma rozwiązywać liczne problemy związane z wyświetlaniem obrazu w grach.

W czym jest problem?

  • w skrócie i uproszczeniu - problem dotyczy synchronizacji obrazu tworzonego przez kartę graficzną z obrazem wyświetlanym na ekranie monitora (odświeżaniem)
  • wyłączenie synchronizacji pionowej (V-Sync)  powoduje nieprzyjemne rozrywanie obrazu (tearing)
  • synchronizacja pionowa rozwiązuje problem tearingu, ale powoduje opóźnienia (lag), a spadki poniżej 60 klatek na sekundę widoczne rwania i zacięcia wyświetlania obrazu (stutter)

G-Sync pozwala go rozwiązać...

  • pozwala na zachowanie doskonałej płynności nawet przy 40 klatkach na sekundę - płynnośc obrazu jest porównywalna do stałych 60 klatek na sekundę przy włączonej synchronizacji pionowej
  • pozwala na pełniejsze wykorzystanie możliwości kart graficznych

... ale

  • wymaga monitora wyposażonego w tę technologię lub ulepszenia monitora o układ G-Sync
  • technologia jest przeznaczona wyłącznie dla kart GeForce serii 6xx/7xx od modelu 650 Ti BOOST wzwyż

Lista obsługiwanych kart graficznych: 

  • GTX TITAN, 
  • GTX 780, 
  • GTX 770, 
  • GTX 760, 
  • GTX 690, 
  • GTX 680, 
  • GTX 670, 
  • GTX 660 Ti, 
  • GTX 660, 
  • GTX 650 Ti Boost.

Wymagany jest również sterownik graficzny w wersji R331.58 lub nowszej, oraz systemy operacyjne Windows 7 lub 8/8.1.

Jak na razie jedynym monitorem obsługującym technologię G-Sync jest ASUS VG248QE - firma NVIDIA współpracuje jednak również z firmami Benq, Phillips i ViewSonic, więc wkrótce należy spodziewać się monitorów "G-Sync enabled" również od tych producentów. Zanim pojawią się one na rynku będzie można ulepszyć monitor za pomocą G-Sync DIY Kit Modification. Jak na razie dokładnie nie wiadomo jakie monitory będzie można ulepszyć - na razie w materiałach prasowych wymieniany jest jedynie wspomniany model ASUSA.

Ceny? Monitor ASUSA bez ulepszenia kosztuje 279 USD, a po ulepszeniu o G-Sync ma kosztować 399 USD. Cena zestawu do samodzielnego montażu ma wynosić około 175 USD.

Mieliśmy okazję podziwiać działanie G-Sync podczas prezentacji w Londynie i wrażenia były naprawdę pozytywne - jednak kamera nagrywająca film w 30 klatkach na sekundę nie jest w stanie dobrze oddać wszystkich niuansów działania tej technologii. NVIDIA obiecała dostarczyć pierwsze sample do testów w ciągu paru tygodnii, więc wtedy będziemy mogli zbadać tę technologię bardziej drobiazgowo.

marketplace

Komentarze

27
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    No prosze, to oprocz karty potrzebowalbym juz tylko zmienic monitor... Rewelacja! :)
  • avatar
    Kolejna marketingowa zagrywka...Ten monitor ma 144Hz :)
    Zaloguj się
  • avatar
    "(...) więc wkrótce należy spodziewać się monitorów "G-Sync enabled" również od tych producentów" - chyba nie wygląda to zbyt różowo, bo już chodzą po internecie pogłoski, że ASUS ma wyłączność na technologię G-SYNC do 3 kwartału 2014 roku.
    Zaloguj się
  • avatar
    IMO technologia widmo, o której wielu będzie pisać ale tak naprawdę nikt z tego nie będzie korzystał. Za drogo.

    Gracze wybiorą w tej samej cenie 120Hz TN'ki, a innym włączony v-sync nie robi różnicy i nie zauważą większego input laga. Nie wiem kogo mogłaby ta technologia zainteresować.
  • avatar
    Mnie ciekawi inna rzecz. Z tego co się dowiedziałem na elektrodzie monitor LCD nie odświeża obrazu z prędkościa 1/f - tylko może odświeżyć całą matryce w czasię np 1ms, a potem 15ms czekać, znów odświeżyc i znów 15ms czekać. Czyli nie tak jak CRT, który non stop powoli odświeża. I tearing jest dlatego, bo jeśli akurat w czasie gdy obraz jest brany z bufora na karcie do monitora (czyli ta pechowa milisekunda w moim przykładzie) akurat gra skończyła rysować klatkę - następuje zamiana buforów (bo mamy 2 bufory - podwójne buforowanie) i dalsza część obrazu jest już brana z nowego bufora zawierającego kolejną klatkę.

    I teraz moje pytanie jest takie. W trybie z włączonym VSync gra czeka aż do następnego odświeżania. Czyli jak mamy 60Hz - i gra nie zdążyła narysować klatki w czasie 1/60s to musi czekać kolejne 1/60s (czyli około 16ms).
    A czemu nie mogła by czekać tylko tej 1ms z mojego przykładu w którym jest obraz przesyłany do monitora. Przecież przez następne ms monitor nic nie robi - nie odświeża non stop - to nie CRT - a przynajmniej tak pisali ludzie na elektrodzie.
    Zaloguj się
  • avatar
    Nie muszę mieć Nvidi, aby pozbyć się takich problemów :D
  • avatar
    Tak tak ... Biedna niepopularna nvidia która zmarnowała sobie życie ... Wiemy że next gent wyprodukuje AMD :)
  • avatar
    Na dziś dzień taniej i prościej zrobić monitor 120Hz + który oferuje zupełny brak szarpanych klatek oraz laga a do tego nie jest ograniczony tylko do jednego producenta kart grafiki co zawęża rynek zbytu.

    179USD to zdecydowanie za drogo.
    Albo ta technologia, bądź co bądź ciekawa, wyraźnie STANIEJE oraz stanie się dostępna DLA WSZYSTKICH albo technologia pozostanie na marginesie jak wiele innych z powodu złej wyceny i separacji standardu.
  • avatar
    Drogi interes ale ciekawy :D Hmm, czyżby 780 Ti będzie słabszy od R 290 X i czyżby Maxwelle zapowiadały się nie być tak potężne jak podaje producent? Pasuje, można powiedzieć że Nvidiia chce zatuszować mniejszą wydajność karty monitorem z G-Sync :D i wszystko jasne, już widzę te kampanie reklamowe - Po co ci 60 kl/s od AMD skoro możesz mieć 30 kl/s i monitor z G-sync i nie zauważysz różnicy? :D
    Zaloguj się
    -1
  • avatar
    Pomysł fajny żeby pozbyć się tearingu, ale niech spadają z tym dopłacaniem. To jest dokładnie taki sam numer jak z tymi kartami sieciowymi co miały zmniejszać opóźnienia w grach gdzie ping ma znaczenie... Coś w stylu: "Kup super drogą kartę sieciową i zdobywaj dwa razy więcej fragów w grach!" Mnie tym nie kupili. Gdyby NVIDIA wprowadziła rozwiązanie programowe (o ile takie jest możliwe), to wtedy by mnie przekonali. A tak to skończyło się tylko na fajnym pomyśle,a kiepskim jego wdrożeniu.
  • avatar
    Tak monitor ma 144 Hz odświeżania
    ale to nie o to tutaj chodzi , jeśli masz słabą grafikę
    i odpalasz wymagającą grę np: tombraider
    To musisz zbić ustawienia na niskie żeby grać bez przycinek
    na 60 fps , a ta technologia pozwala uzyskać taką samą płynność
    jak przy 60 fps , gdy masz 40 fps czyli możesz dać ustawienia na
    high zamiast na low .
    W skrócie to taki FPS booster "ale nie do końca"
  • avatar
    Czy na podobnej zasadzie nie działa przypadkiem adaptive v-sync, który jest już obecny od pewnego czasu?
    Zaloguj się
  • avatar
    Takie sprawy to ja mam w moim TV 5 letnim pfff
  • avatar
    Ale to już było i to za czasów Geforce serii 6.... tak, NV40.

    http://www.leadtek.com/p_images/zoom/195_2Z.jpg