Na topie

AMD zmienia nazwę FreeSync 2 na FreeSync 2 HDR - na zmianach powinni zyskać klienci

Autor:

więcej artykułów ze strefy:
Monitory

Kategoria: Komputery Peryferia Monitory Tematyka: FreeSync HDR Producenci: AMD

Nowy standard wprowadza też bardziej rygorystyczne wymagania co do jakości wyświetlanego obrazu.

  • AMD zmienia nazwę FreeSync 2 na FreeSync 2 HDR - na zmianach powinni zyskać klienci
A A

Technologia AMD FreeSync 2 to rozszerzenie funkcji FreeSync, które pozwala cieszyć się płynną rozgrywką na ekranach HDR. Nazwa nie była jednak do końca jasna, więc producent postanowił ją zmienić na FreeSync 2 HDR.

Zmiany w nazewnictwie ujawnili przedstawiciele firmy AMD w wywiadzie dla serwisu PC Perspective. Jak się okazuje, konsumenci nie byli do końca świadomi co wprowadza nowa wersja technologii, więc konieczne było wprowadzenie bardziej zrozumiałej nazwy (podobnie jak w przypadku konkurencyjnej funkcji G-Sync HDR).

AMD FreeSync 2

To jednak nie koniec zmian, bo „nowy” standard określa również minimalne wymagania co do monitorów. Dany model musi wspierać standard HDR600 (a więc cechować się jasnością obrazu na poziomie 600 nitów / 600 cd/m2), a także oferować 99% pokrycia palety barw BT.709 i 90% palety DCI P3. Przedstawiciele AMD wspomnieli też o minimalnym czasie reakcji, ale nie ujawniono tutaj żadnych szczegółów.

Nowa nazwa i jasne wymagania standardu powinny przełożyć się na lepsze oferty dla klientów. Szkoda, że producent wcześniej nie pomyślał o takich zmianach (tym bardziej, że na rynku pojawiło się kilka monitorów teoretycznie zgodnych z FreeSync 2, które teraz nie spełniają nowych wymagań co do jasności).

Źródło: PC Perspective, TechPowerUp

Odsłon: 3266 Skomentuj newsa
Komentarze

8

Udostępnij
  1. lucullus
    Oceń komentarz:

    1    

    Opublikowano: 2018-06-21 18:40

    600 nitow to jest pseudo HDR 600.

    Skomentuj

    1. kristof080
      Oceń komentarz:

      0    

      Opublikowano: 2018-06-21 19:01

      No, jak wiekszosc tv na rynku, wiec czym sie dziwic?

      Skomentuj

    2. kitamo
      Oceń komentarz:

      7    

      Opublikowano: 2018-06-21 22:34

      600 nitów to jest pseudo HDR?
      To ile Ty chcesz nitów w monitorach?

      Wiesz o tym że o jakości HDR decyduje tylko nie jasność a przestrzeń pomiędzy czernią a maksymalną jasnością?

      Jeśli monitor wyswietla czern w formie min 10nitów a max biel max 500nit, to jest to znacznie mniej niż przy ekranie który czern wyswietla w 0,1nit i max biel w 300nit.

      Wiekszosc ekranów wyswietla te 1000nitów ale na małym wycinku. Co ciekawe tyle to zobaczysz tylko na materiałach reklamowych.

      Na YT możesz znaleźć analizę filmów w których widać jak jasność jest realizowana i dosłownie kilka scen znajdziesz które zbliżają się do 400nit.

      Mam doskonały przykład bo mam demonstracyjne pliki dla telewizorów z filmami oraz oryginalne wersje tych filmów i widzę ile zostało podbity na tych demówkach kontrast i jasność. Wszystko to po to by w sklepie zaprezentować jak najlepiej dany TV.
      Pozniej odpalasz w domu oficjalny film i szukasz gdzie jest ten HDR.


      Dla monitora który oglądasz z 60cm te 600nitów to jest i tak kosmos.

      Ja mam monitor ktoiry ma ok 360cd, a używam go do codziennego użytku przy 20% tej jasności bo inaczej to bym oślepł.

      Skomentuj Historia edycji

      1. ALEKS_D_RAVEN
        Oceń komentarz:

        0    

        Opublikowano: 2018-06-21 22:38

        Popieram. Bez zwiększenia jasności nie ma mowy o HDR.

        Skomentuj

      2. lucullus
        Oceń komentarz:

        -1    

        Opublikowano: 2018-06-22 19:46

        Aby monitor był HDR zgodnie ze standardem musi mieć, oprócz właśnie możliwości wyświetlania jasnych punktów na tle czarnego, jest 1000 nitów.

        Fin.

        A to, że 3 głównych producentów matryc nie jest w stanie robić paneli w polowie wymagalnej jasności nie oznacza, że mamy akceptować bełkot marketingowy HDR400 czy HDR600.

        Skomentuj

        1. kitamo
          Oceń komentarz:

          3    

          Opublikowano: 2018-06-23 02:28

          bzduuuuuraaa w kwadrat.
          niczego nie musi mieć.
          1000nitów musi mieć ekran który można opisac jako PREMIUM i dotyczy ekranów telewizorów.
          mylisz kompletnie pojęcia. HDR10 to po prostu format zapisu metadanych o luminancji a ULTRA HD Premium definiuje że maxymalna luminancja musi wynosic minimum 1000nitów.

          Górna granica HDR to 10000cd/m2 bo jest to górna granica dla ludzkiego oka.
          10x mniej to strefa premium czyli 1000cd/m2
          a wszystko poniżej to także HDR ale bez metki premium.

          dla monitorów komputerowych może być organizowany osobny standard zapisu metadanych bo ich zastosowanie jest inne niż telewizorów tak wiec może być HDR60, HDR600. Chodzi o to by okreslic ze obraz na monitorze nie może wyjść poza 600nitów. Gdyby na monitorze z 600nitami odtworzyć obraz w HDR10 który ma peak brightness ramki na poziomie 4000nitów to nie był by w stanie prawidłowo tego zinterpretować.
          Jako że TV wyswietla filmy w HDR a monitor znacznie szersze spektrum formatów i zastosowań tak wiec trzeba stworzyć nowy standard by móc poruszać się w jego granicach i ich nie przekraczać (jeśli chodzi o materiał jaki będzie na nim wyświetlany).
          Dlatego mamy HDR600.

          Skomentuj Historia edycji

  2. franiux
    Oceń komentarz:

    0    

    Opublikowano: 2018-06-23 07:29

    A kiedy NV to wprowadzi ? przecież jest wiodącą marką a to otwarty standard i żadnych licencji nie muszą płacić. Zapewne kwestia sterownika.

    Skomentuj

    1. Finear
      Oceń komentarz:

      0    

      Opublikowano: 2018-06-24 01:22

      przecież juz jest na gsync

      Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!