Monitory

Monitory z AMD FreeSync będą tańsze od modeli z Nvidia G-Sync o $100

przeczytasz w 1 min.

Jedną z zalet FreeSync w porównaniu do G-Sync jest to, że jest to technologia całkowicie wolna od opłat dla każdego z partnerów.

AMD FreeSync prezentacja technologii

Technologia AMD FreeSync zapowiada się całkiem obiecująco i może nieźle namieszać na rynku monitorów dedykowanych graczom. Niedawno poznaliśmy kolejne szczegóły na temat tego rozwiązania, które w wywiadzie dla PCR-Online ujawnił Richard Huddy – osoba ściśle związana z działem gier w AMD.

FreeSync pozwala kontrolować czas między generowaniem klatek i w efekcie eliminuje problem „rwań”, zacięć i opóźnień w wyświetlanym obrazie. Niedawno rozwiązanie to zostało wprowadzone przez organizację VESA (Video Electronics Standards Association) do standardu DisplayPort 1.2a, dzięki czemu będzie wolne od jakichkolwiek opłat licencyjnych. W efekcie monitory FreeSync będą tańsze, niż modele korzystające z konkurencyjnego rozwiązania Nvidia G-Sync (tutaj producenci muszą uiścić stosowną opłatę licencyjną oraz zainstalować dodatkowy moduł) – różnice w cenie mają sięgać 80 – 100 dolarów.

Oczywiście nic nie stoi na przeszkodzie, aby w danym monitorze były obecne obydwie technologie – AMD FreeSync i Nvidia G-Sync. Bardzo możliwe, że pierwsze monitory z rozwiązaniem Nvidii takiej obsługi mieć nie będą, ponieważ FreeSync to nowy standard. Niemniej w momencie wejścia na rynek pierwszych monitorów z technologią AMD, na rynku powinny również pojawić się modele z jednym i drugim standardem. Tak przynajmniej wygląda teoria, bo jednak G-Sync podnosi koszt monitora, a przecież jak nie widać różnicy, to po co przepłacać ;)

Kiedy powinniśmy się spodziewać pierwszych monitorów z FreeSync? Pierwsze modele do testów powinny trafić do recenzentów nawet we wrześniu/październiku, aby recenzje mogły się ukazać jeszcze przed Świętami. Dostępność w sklepach przewidziana jest początek przyszłego roku.

Źródło: PCR-Online

Komentarze

59
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    patalajka22
    20
    Brawo AMD technologia dla ludu a nie tylko dla burżuji
    • avatar
      Cacek93
      5
      G-sync to i tak totalna głupota obecnie.
      Powód? Trafia wyłącznie do monitorów 120-144Hz gdzie sama częstotliwość rozprawia się z screen tearingiem.


      Mam nadzieję, że FreeSync trafi do zwykłych 60-tek gdzie efekt będzie widoczny.
      • avatar
        leotoro
        3
        Tak się zastanawiam, czy będzie można uruchomić FreeSync na kartach nVidia ?
        Ktoś ma rozeznanie ?
        • avatar
          mgkiler
          2
          A ja mam inne pytanie dla kogoś co zna się na elektronice.

          Bo pomysł aby monitor miał zmienną częstotliwość odświeżania - dopasowująca się do gry np czekając na event z karty już z 2 lata temu pisałem na elektrodzie, bo dawno coś takiego wymyśliłem i pytałem, czemu to nie jest możliwe.
          Z tego co zrozumiałem z odpowiedzi wynikało, że technicznie nie bardzo się da zrobić takie coś bo kryształ trzeba co chwilę odświeżać w równych odstępach czasu bo inaczej obraz zniknie.

          A co się zmieniło teraz, że dziś nagle się już da?
          • avatar
            Marecki_CLF
            2
            Mam nadzieję, że FreeSync pojawi się również w laptopach.
            • avatar
              Mariano_
              1
              Korzystam z monitora BenQ XL2411Z 144hz i gram we wszystkie gry bez synchronizacji pionowej. Ani razu jeszcze nie miałem żadnych problemów z zakłóceniami obrazu itp. mimo grania przy różnych wartościach fps. Nie rozumiem po co wymyślają jakieś nowe technologie do kiepskich monitorów, lepiej po prostu kupić jakiś lepszy i problem z głowy.
              • avatar
                Konto usunięte
                1
                Mnie cieszy jedno, czego ludzie nie chcą zauważyć. AMD robi bardzo wiele żeby standardy były otwarte. Dobrze wiedzą bo sparzyli się na procesorach co to znaczy zamknięte standardy i licencje oraz co się dzieję gdy ktoś ma monopol. Mi się to podoba że wkładają wręcz serce w to żeby rozwiązania które opracowują służyły ludziom a nie tylko ich portfelom tak jak to się dzieje w przypadki złowieszczych firm zielonej i niebieskiej.
                • avatar
                  Konto usunięte
                  0
                  Jestem za wolnym rynkiem ale serio nie wiedziałbym, po której stronie jest to lepsze, na czym to polega i za co płacę ; - )
                  • avatar
                    Balrogos
                    -2
                    Mial byc occulus i go nadal nie ma ;/
                    • avatar
                      trybcio86
                      -3
                      AMD wprowadza wiele innowacji wypadajacych zazwyczaj srednio ale to i tak lepsze niz produkty NV za ktore placi sie slono i dzialaja tak samo srednio jak u konkurencji ( mowie o physx )
                      • avatar
                        BILI82
                        -15
                        Jakie rwanie na ekranie ? co to znow za marketingowa bzdura z zarywaniem ekeranu? teraz specjamnie beda to wprowadzac do gier zeby kupowac te chore monitory czy jak?
                        • avatar
                          Konto usunięte
                          0
                          A tak wogole to gdzie ta premiera R285 miała być 2??
                          • avatar
                            ADiS_
                            0
                            G-Sync pobiera ok. 4% wydajności karty graficznej Nvidia. Jeżeli rozwiązanie AMD nie będzie obciążało grafiki i będzie tak samo dobre jak G-Sync, to napewno skorzystamy na tym my - użytkownicy monitorów :D

                            Jednak wydaje mi się, że skoro Nvidia pcha do monitorów dodatkowy moduł elektroniki, to programowe rozwiązanie od AMD będzie jeszcze bardziej obciążało grafike.. obym się mylił.
                            • avatar
                              Konto usunięte
                              0
                              Jak zwykle zaje*iste źródła od autora.... pcr-online?!?!

                              http://www.pcronline.com/find/advanced?SearchText=freesync&SearchType=default%7Call&Year=&MatchType=word&SearchButton.x=0&SearchButton.y=0



                              ŻADNEGO WYNIKU DLA SŁOWA FREESYNC.
                              • avatar
                                Marked
                                0
                                Wg mnie to wyolbrzymianie problemu aby zachęcić jakoś ludzi do kupowania nowego sprzętu.
                                • avatar
                                  gormar
                                  0
                                  2D to 2D a 3D to 3D. Te umowne oznaczenia definiują sposób opisu obrazu. To na jakim ekranie są one później wyświetlane nie ma znaczenia. Przecież właśnie karta graficzna zajmuje się przeliczeniem sceny 3D w taki sposób, aby dało się ją wyświetlić na płaskiej powierzchni.

                                  Na podanym linku z infografiką wyraźnie jest napisane: G-SYNC Refresh Rates 30-144Hz. Myślnik oznacza, że wybór jest płynny i właśnie będzie zmienny i zależny od aktualnie renderowanej kratki. Za to w trybie 3D (stereoskopowy z aktywną przysłoną) znowu są stałe czasy odświerzania 100 i 120Hz, co przekłada się na 50 i 60Hz dla każdego oka.

                                  Generalnie G-SYNC ma wyglądać tak:
                                  Rendering 1. klatki zajmie przykładowo 16ms i od razu nastąpi wyświetlenie. Kolejna klatka będzie wygenerowana dla przesunięcia czasu sceny około 16ms i będzie tworzona 18ms i też po zakończeniu zostanie natychmiast wyświetlona. Za to 3 klatka zostanie narysowana dla przesunięcia geometrii w czasie o 18ms a jej rendering potrwa 17 ms i po zakończeniu pojawi się "bezzwłocznie" na ekranie, itd.

                                  W dotychczasowym rozwiązaniu ze stałą częstotliwością wyświetlania i włączonym V-SYNC przy 60Hz powyższa sytuacja wyglądała by tak:
                                  Rendering 16ms, oczekiwanie na wyświetlenie 0,66ms, ale dzięki podwójnemu buforowaniu natychmiast generowana jest kolejna klatka przez 18ms, z przesunięciem w czasie o 16ms. Niestety nie zdąży się ona pojawić na ekranie przy kolejnym zdarzeniu odświerzania, gdyż 18-0,66ms = 17,34 co jest większe niż 16,66ms (1/60s). Co powoduje, że pierwsza klatka jest widoczna na ekranie przez ponad 33 ms zamiast niecałych 17 ms. Takie powtarzające się przypadki powodują, że obraz wyraźnie "drga", tzw jitter.
                                  • avatar
                                    gormar
                                    0
                                    Być może trochę przesadziłem z przyśpieszaniem wyświetlania klatki powyżej z góry ustalonego czasu synchronizacji, ale przedłużanie czasu wyświetlania obrazu ponad standardowy okres inny niż czas V-SYNC dzięki technice Adaptive-Sync na pewno będzie możliwe.
                                    Tutaj, dzięki użytkownikowi "szatkus", znajdziesz materiał źródłowy: http://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-v1.pdf. Spójrz na rycinę numer 3, gdzie wyraźnie w przykładzie dla Adaptive-Sync jest pokazane, że zamiast ponownie wyświetlać klatkę A, wstrzymano odświerzanie, aby poczekać na klatkę B. Dzięki temu "jiter" wynosi tylko około 1/3 klatki zamiast całej jak w przypadku tradycyjnego V-Sync. I na pewno nie chodzi tutaj o bufor w monitorze, tylko to co jest prezentowane na ekranie.

                                    Generalnie to nie wiem czy przyśpieszanie wyświetlania klatki będzie możliwe, ale opóźnienie o pewien czas na pewno. Już nie mogę się doczekać oglądania filmów 23,978 fps bez niepotrzebnej kerekcji czasu klatek (Frame Time Corection). Przy odświerzaniu 50 Hz (VSYNC co 40 ms), wyświetlając klatkę dwa razy wystarczy przed nową zaczekać 1,7ms i będzie niemal idealnie 23,978 FPS (VSYNC co 41,7 ms).