Monitory

Monitory z AMD FreeSync będą tańsze od modeli z Nvidia G-Sync o $100

Paweł Maziarz | Redaktor serwisu benchmark.pl
59 komentarzy Dyskutuj z nami

Jedną z zalet FreeSync w porównaniu do G-Sync jest to, że jest to technologia całkowicie wolna od opłat dla każdego z partnerów.

AMD FreeSync prezentacja technologii

Technologia AMD FreeSync zapowiada się całkiem obiecująco i może nieźle namieszać na rynku monitorów dedykowanych graczom. Niedawno poznaliśmy kolejne szczegóły na temat tego rozwiązania, które w wywiadzie dla PCR-Online ujawnił Richard Huddy – osoba ściśle związana z działem gier w AMD.

FreeSync pozwala kontrolować czas między generowaniem klatek i w efekcie eliminuje problem „rwań”, zacięć i opóźnień w wyświetlanym obrazie. Niedawno rozwiązanie to zostało wprowadzone przez organizację VESA (Video Electronics Standards Association) do standardu DisplayPort 1.2a, dzięki czemu będzie wolne od jakichkolwiek opłat licencyjnych. W efekcie monitory FreeSync będą tańsze, niż modele korzystające z konkurencyjnego rozwiązania Nvidia G-Sync (tutaj producenci muszą uiścić stosowną opłatę licencyjną oraz zainstalować dodatkowy moduł) – różnice w cenie mają sięgać 80 – 100 dolarów.

Oczywiście nic nie stoi na przeszkodzie, aby w danym monitorze były obecne obydwie technologie – AMD FreeSync i Nvidia G-Sync. Bardzo możliwe, że pierwsze monitory z rozwiązaniem Nvidii takiej obsługi mieć nie będą, ponieważ FreeSync to nowy standard. Niemniej w momencie wejścia na rynek pierwszych monitorów z technologią AMD, na rynku powinny również pojawić się modele z jednym i drugim standardem. Tak przynajmniej wygląda teoria, bo jednak G-Sync podnosi koszt monitora, a przecież jak nie widać różnicy, to po co przepłacać ;)

Kiedy powinniśmy się spodziewać pierwszych monitorów z FreeSync? Pierwsze modele do testów powinny trafić do recenzentów nawet we wrześniu/październiku, aby recenzje mogły się ukazać jeszcze przed Świętami. Dostępność w sklepach przewidziana jest początek przyszłego roku.

Źródło: PCR-Online

Komentarze

59
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    patalajka22
    Brawo AMD technologia dla ludu a nie tylko dla burżuji
    20
  • avatar
    Cacek93
    G-sync to i tak totalna głupota obecnie.
    Powód? Trafia wyłącznie do monitorów 120-144Hz gdzie sama częstotliwość rozprawia się z screen tearingiem.


    Mam nadzieję, że FreeSync trafi do zwykłych 60-tek gdzie efekt będzie widoczny.
    5
  • avatar
    leotoro
    Tak się zastanawiam, czy będzie można uruchomić FreeSync na kartach nVidia ?
    Ktoś ma rozeznanie ?
    3
  • avatar
    mgkiler
    A ja mam inne pytanie dla kogoś co zna się na elektronice.

    Bo pomysł aby monitor miał zmienną częstotliwość odświeżania - dopasowująca się do gry np czekając na event z karty już z 2 lata temu pisałem na elektrodzie, bo dawno coś takiego wymyśliłem i pytałem, czemu to nie jest możliwe.
    Z tego co zrozumiałem z odpowiedzi wynikało, że technicznie nie bardzo się da zrobić takie coś bo kryształ trzeba co chwilę odświeżać w równych odstępach czasu bo inaczej obraz zniknie.

    A co się zmieniło teraz, że dziś nagle się już da?
    2
  • avatar
    Marecki_CLF
    Mam nadzieję, że FreeSync pojawi się również w laptopach.
    2
  • avatar
    Mariano_
    Korzystam z monitora BenQ XL2411Z 144hz i gram we wszystkie gry bez synchronizacji pionowej. Ani razu jeszcze nie miałem żadnych problemów z zakłóceniami obrazu itp. mimo grania przy różnych wartościach fps. Nie rozumiem po co wymyślają jakieś nowe technologie do kiepskich monitorów, lepiej po prostu kupić jakiś lepszy i problem z głowy.
    1
  • avatar
    Konto usunięte
    Mnie cieszy jedno, czego ludzie nie chcą zauważyć. AMD robi bardzo wiele żeby standardy były otwarte. Dobrze wiedzą bo sparzyli się na procesorach co to znaczy zamknięte standardy i licencje oraz co się dzieję gdy ktoś ma monopol. Mi się to podoba że wkładają wręcz serce w to żeby rozwiązania które opracowują służyły ludziom a nie tylko ich portfelom tak jak to się dzieje w przypadki złowieszczych firm zielonej i niebieskiej.
    1
  • avatar
    Konto usunięte
    Jestem za wolnym rynkiem ale serio nie wiedziałbym, po której stronie jest to lepsze, na czym to polega i za co płacę ; - )
  • avatar
    Balrogos
    Mial byc occulus i go nadal nie ma ;/
    -2
  • avatar
    trybcio86
    AMD wprowadza wiele innowacji wypadajacych zazwyczaj srednio ale to i tak lepsze niz produkty NV za ktore placi sie slono i dzialaja tak samo srednio jak u konkurencji ( mowie o physx )
    -3
  • avatar
    BILI82
    Jakie rwanie na ekranie ? co to znow za marketingowa bzdura z zarywaniem ekeranu? teraz specjamnie beda to wprowadzac do gier zeby kupowac te chore monitory czy jak?
    -15
  • avatar
    Konto usunięte
    A tak wogole to gdzie ta premiera R285 miała być 2??
  • avatar
    ADiS_
    G-Sync pobiera ok. 4% wydajności karty graficznej Nvidia. Jeżeli rozwiązanie AMD nie będzie obciążało grafiki i będzie tak samo dobre jak G-Sync, to napewno skorzystamy na tym my - użytkownicy monitorów :D

    Jednak wydaje mi się, że skoro Nvidia pcha do monitorów dodatkowy moduł elektroniki, to programowe rozwiązanie od AMD będzie jeszcze bardziej obciążało grafike.. obym się mylił.
  • avatar
    Konto usunięte
    Jak zwykle zaje*iste źródła od autora.... pcr-online?!?!

    http://www.pcronline.com/find/advanced?SearchText=freesync&SearchType=default%7Call&Year=&MatchType=word&SearchButton.x=0&SearchButton.y=0



    ŻADNEGO WYNIKU DLA SŁOWA FREESYNC.
  • avatar
    Marked
    Wg mnie to wyolbrzymianie problemu aby zachęcić jakoś ludzi do kupowania nowego sprzętu.
  • avatar
    gormar
    2D to 2D a 3D to 3D. Te umowne oznaczenia definiują sposób opisu obrazu. To na jakim ekranie są one później wyświetlane nie ma znaczenia. Przecież właśnie karta graficzna zajmuje się przeliczeniem sceny 3D w taki sposób, aby dało się ją wyświetlić na płaskiej powierzchni.

    Na podanym linku z infografiką wyraźnie jest napisane: G-SYNC Refresh Rates 30-144Hz. Myślnik oznacza, że wybór jest płynny i właśnie będzie zmienny i zależny od aktualnie renderowanej kratki. Za to w trybie 3D (stereoskopowy z aktywną przysłoną) znowu są stałe czasy odświerzania 100 i 120Hz, co przekłada się na 50 i 60Hz dla każdego oka.

    Generalnie G-SYNC ma wyglądać tak:
    Rendering 1. klatki zajmie przykładowo 16ms i od razu nastąpi wyświetlenie. Kolejna klatka będzie wygenerowana dla przesunięcia czasu sceny około 16ms i będzie tworzona 18ms i też po zakończeniu zostanie natychmiast wyświetlona. Za to 3 klatka zostanie narysowana dla przesunięcia geometrii w czasie o 18ms a jej rendering potrwa 17 ms i po zakończeniu pojawi się "bezzwłocznie" na ekranie, itd.

    W dotychczasowym rozwiązaniu ze stałą częstotliwością wyświetlania i włączonym V-SYNC przy 60Hz powyższa sytuacja wyglądała by tak:
    Rendering 16ms, oczekiwanie na wyświetlenie 0,66ms, ale dzięki podwójnemu buforowaniu natychmiast generowana jest kolejna klatka przez 18ms, z przesunięciem w czasie o 16ms. Niestety nie zdąży się ona pojawić na ekranie przy kolejnym zdarzeniu odświerzania, gdyż 18-0,66ms = 17,34 co jest większe niż 16,66ms (1/60s). Co powoduje, że pierwsza klatka jest widoczna na ekranie przez ponad 33 ms zamiast niecałych 17 ms. Takie powtarzające się przypadki powodują, że obraz wyraźnie "drga", tzw jitter.
  • avatar
    gormar
    Być może trochę przesadziłem z przyśpieszaniem wyświetlania klatki powyżej z góry ustalonego czasu synchronizacji, ale przedłużanie czasu wyświetlania obrazu ponad standardowy okres inny niż czas V-SYNC dzięki technice Adaptive-Sync na pewno będzie możliwe.
    Tutaj, dzięki użytkownikowi "szatkus", znajdziesz materiał źródłowy: http://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-v1.pdf. Spójrz na rycinę numer 3, gdzie wyraźnie w przykładzie dla Adaptive-Sync jest pokazane, że zamiast ponownie wyświetlać klatkę A, wstrzymano odświerzanie, aby poczekać na klatkę B. Dzięki temu "jiter" wynosi tylko około 1/3 klatki zamiast całej jak w przypadku tradycyjnego V-Sync. I na pewno nie chodzi tutaj o bufor w monitorze, tylko to co jest prezentowane na ekranie.

    Generalnie to nie wiem czy przyśpieszanie wyświetlania klatki będzie możliwe, ale opóźnienie o pewien czas na pewno. Już nie mogę się doczekać oglądania filmów 23,978 fps bez niepotrzebnej kerekcji czasu klatek (Frame Time Corection). Przy odświerzaniu 50 Hz (VSYNC co 40 ms), wyświetlając klatkę dwa razy wystarczy przed nową zaczekać 1,7ms i będzie niemal idealnie 23,978 FPS (VSYNC co 41,7 ms).