Na topie

Konfiguracje GeForce SLI mają problem ze spadkami wydajności z funkcją G-Sync

Autor:

więcej artykułów ze strefy:
Karty graficzne

Kategoria: Komputery Podzespoły Karty graficzne Tematyka: G-SYNC Nvidia GeForce NVIDIA SLI Producenci: Nvidia

Problem ma być znany już od jakiegoś czasu, ale dopiero teraz został potwierdzony przez redakcję ExtremeTech. Nie wiadomo czym może być spowodowany.

  • Konfiguracje GeForce SLI mają problem ze spadkami wydajności z funkcją G-Sync
A A

Technologia Nvidia G-Sync miała być zbawieniem dla wymagających graczy, którym zależy na możliwie płynnej animacji. Niestety, w praktyce nie wygląda to tak kolorowo, bo w najwydajniejszych konfiguracjach funkcja może powodować duże spadki wydajności.

Jak się okazuje, problem wcale nie jest nowy, bo użytkownicy zaczęli się uskarżać na spadki wydajności już w 2016 roku (odpowiednie wątki można znaleźć w serwisie Reddit oraz na forach Tom's Hardware, TechPowerUp i GeForce). Ostatnio jednak tematem zainteresowali się redaktorzy z serwisu ExtremeTech, którzy postanowili przeprowadzić testy wydajności – za platformę posłużyła tutaj konfiguracja z dwoma kartami GeForce GTX 1080 połączonymi w SLI oraz monitor Acer XB280HK (model o rozdzielczości 4K 60 Hz z technologią G-Sync).

Testy nie pozostawiają złudzeń – w przypadku konfiguracji SLI, aktywowanie funkcji G-Sync powoduje spadki wydajności. Zerknijcie zresztą na przykładowe wykresy poniżej.

Deus Ex - wydajność

Hitman - wydajność

Far Cry 5 - wydajność

Gry G-Sync SLI - wydajność

Warto zauważyć, że praktycznie w każdym tytule obserwujemy inne zachowanie platformy. Przykładowo w nowym Deus Ex i Hitmanie spadki są widoczne tylko w trybie DirectX 11, a w Far Cry 5 różnica się zaciera wraz ze wzrostem detali i ogólnym spadkiem płynności animacji. Największą różnicę w wydajności zaobserwowano w grze Rising Storm 2 (ta wynosi prawie 65%).

Póki co nie wiadomo z czego wynikają różnice w osiągach. Jeżeli jednak pojawią się nowe informacje w temacie, na pewno Was o tym poinformujemy.

Źródło: ExtremeTech, Tom’s Hardware, TechPowerUp, GeForce, Reddit

Odsłon: 2629 Skomentuj newsa
Komentarze

23

Udostępnij
  1. BrumBrumBrum
    Oceń komentarz:

    3    

    Opublikowano: 2018-10-24 11:52

    nie widzę sensu by kupować 2x 1080 do SLI. z kompa robi się piekarnik

    Skomentuj

    1. Sander Cohen
      Oceń komentarz:

      0    

      Opublikowano: 2018-10-24 15:11

      Ale za to w podpisie na forum mozna sie pochwalic SLI i zyskac troche "restekpu" :-D zwłaszcza gdy sie jeszcze ma na pokladzie Xeona bo to tez dodaje do niego +10. A jak zapytasz takiego po co mu to oczywiscie odpowie ze do pracy (a gry to tylko przy okazji). A jego praca polega na pisaniu w wordzie... Ale coz, ludzie maja kompleksy i na to nic sie nie poradzi.
      Juz lepiej wymienic karte czesciej niz robic SLI. Po pierwsze wyjdzie taniej, po drugie wydajniej, po trzecie mniej z tym problemow. Szkoda ze nVidia robi ludzi w balona z tym G-Sync. Nie dosc ze rozwiązanie drozsze od konkurencji to jeszcze nie dziala jak powinno.

      Skomentuj

      1. Smuga
        Oceń komentarz:

        4    

        Opublikowano: 2018-10-24 15:15

        SLI/Crossfire mają i miały od zawsze sens TYLKO w jednym wypadku - przy najwydajniejszej możliwej karcie. Wtedy jedynym sposobem zwiększenia wydajności jest już tandem - pojedynczej szybszej karty już po prostu nie ma. Wszystko inne to proszenie się o kłopoty.

        Skomentuj

        1. szydas
          Oceń komentarz:

          2    

          Opublikowano: 2018-10-24 15:44

          No nie tak do końca. Był przecież okres, kiedy duet Radeonów 6950 kosił dużo droższe i wydajniejsze karty za mniej więcej połowę ich ceny, a wiele egzemplarzy można było dodatkowo przemodować do 6970 co dawało jeszcze trochę fpsów. Ale fakt, to dosyć rzadka sytuacja.

          Skomentuj

          1. bartek_k3
            Oceń komentarz:

            0    

            Opublikowano: 2018-10-24 21:16

            taki tandemik tez mialem ;D Potem bylo 295x2 w cf niezle chulalo ale ilosc ciepla w budzie nawet na wodzie robila wrazenie

            Skomentuj

        2. Zero-Cool
          Oceń komentarz:

          -1    

          Opublikowano: 2018-10-24 19:34

          Przez wiele lat dużo bardziej opłacalnym (i mówimy tutaj o najbardziej opłacalnym wskaźniku cena/wydajność) wyborem było łączenie GeForców w SLI z serii x70. No przynajmniej było tak na całym świecie, może gdzieś w Polsce były nie odnotowane przypadki w których nie sprawdzało się to.

          Skomentuj

          1. Smuga
            Oceń komentarz:

            1    

            Opublikowano: 2018-10-25 11:00

            Ech... nie o to chodzi co było bardziej opłacalne cenowo a co nie. Jasne jest, ze średnie karty mają znacznie lepszy stosunek wydajności do ceny i złożenie takich dwóch przy dobrych wiatrach (czyli skalowaniu) będzie tańsze niż kupno takiego uber-enda. ALE - problemy natury łączenia będą obecne tak czy inaczej i to WTEDY właśnie człek zastanawia się czy warto. Jak ma szczęście i jego tytuły ładnie wykorzystują SLI/CF - to fajnie, zaoszczędzi. A jak nie - to kicha, ma tearing, problemy z G-Synciem, spadki fps poniżej solowej (!), zerowe lub minimalne skalowanie, drugie tyle ognia do wypompowania z obudowy. Jak ktoś ma Jednego xx80 Ti czy Titana - nie ma już wyjścia, musi dołożyć drugą. Jak ma xx70 - już może się zastanawiać czy warto ryzykować.

            Skomentuj

      2. lkozierowski
        Oceń komentarz:

        0    

        Opublikowano: 2018-10-24 18:50

        Mam SLI w GTXach 1080 Ti. Nie mam Xeona, nie chwalę się tym i używam tego tylko do grania. 4k w 60 klatkach gra się obłędnie, choć pewnie lepiej w 144Hz ale tego nie wiem, bo nie grałem...

        Skomentuj

    2. Smuga
      Oceń komentarz:

      1    

      Opublikowano: 2018-10-24 15:12

      Bez pełnej pętli wodnej nici - jeden 1080/1080 Ti pompuje takie ilości ciepła, że głowa mała. U mnie podkręcony Ti tak podgrzewa szkło obok, że ledwo idzie dotknąć... Muszę go zwodować.

      Skomentuj

        1. Zero-Cool
          Oceń komentarz:

          0    

          Opublikowano: 2018-10-24 19:52

          Ale on pisze o podkręconym Ti...

          W topowych kartach nie ważne jakiej marki podkręcanie powoduje włączenie trybu ogrzewania całego pokoju, a czasami nawet i mieszkania lub domu...

          Skomentuj

          1. bartek_k3
            Oceń komentarz:

            0    

            Opublikowano: 2018-10-24 21:13

            ps tez mam podkrecona karte

            Skomentuj

          2. Smuga
            Oceń komentarz:

            1    

            Opublikowano: 2018-10-25 11:12

            Mój Ti na standardowych zegarach miał max 68 stopni, po podkręceniu wyciąga nawet 75 stopni (mam obudowę ustawioną na maksymalną ciszę, w karcie temp limit i power limit na maxa, przeszło 6Ghz na pamięciach i sporo ponad 2Ghz na rdzeniu, ale ile dokładnie to nie pamiętam bo już tak od roku prawie chula stabilnie, jak zwoduję to wrócę do tematu i może coś więcej ustrzelę). Rzecz jasna nieco szybciej wentylatory wtedy hulają, a to zamienia go w grzałkę. Dochodzi do tego chłodnica procka która też (chociaż w porównaniu do GPU jest zimna jak lód) swoje robi - musi być na frontcie, bo karta by procka ugotowała (w ogóle umieszczanie chłodnic CPU na topie przy nie-blowerowej karcie to idiotyzm).

            Skomentuj

        2. bartek_k3
          Oceń komentarz:

          0    

          Opublikowano: 2018-10-24 21:08

          popieram mam msi gaming x trio i 65 stopni max podczas grania . Teraz go zwodowalem na pelnym bloku 44 stopnie

          Skomentuj

  2. kasiazezbajki
    Oceń komentarz:

    -3    

    Opublikowano: 2018-10-24 13:56

    Nvidia to złom

    Skomentuj

  3. ncc1701
    Oceń komentarz:

    0    

    Opublikowano: 2018-10-24 15:51

    Z cyklu: "Problemy pierwszego swiata": ilosc klatek SLI/G-Sync w Rising Storm 2 spadla z 206 do 75.

    Nie zebym nie widzial powagi problemu, ale... jakie to ma znaczenie przy monitorze 60Hz?

    Skomentuj

    1. abukiewicz
      Oceń komentarz:

      1    

      Opublikowano: 2018-10-24 16:05

      Są monitory które mają znacznie większą częstotliwość odświeżania np 240Hz na przykład https://www.amazon.com/PG258Q-G-SYNC-Esports-Gaming-Monitor/dp/B06WRP3F5S

      Skomentuj

      1. Smuga
        Oceń komentarz:

        1    

        Opublikowano: 2018-10-25 11:14

        Ale on zapewne pyta konkretnie jakie to ma znaczenie przy monitorze 60Hz... choć o ile to nie 4k to raczej nikt SLI/CF nie zestawia przy takim odświeżaniu.

        Skomentuj

  4. bartek_k3
    Oceń komentarz:

    0    

    Opublikowano: 2018-10-24 21:10

    Nie od wczoraj wiadomo ze nvidia wycofuje sie ze sli bo im cos ta technologia nie do konca dziala. CF duzo lepiej sie skaluje lepiej dziala i jest mniej problematyczna.

    Skomentuj

    1. Eternal1
      Oceń komentarz:

      1    

      Opublikowano: 2018-10-25 00:04

      Zarówno SLI jak i CF działa słabo w środowisku DX9/10/11.
      Dopiero niskopoziomowe API potrafią obsłużyć MultiGPU z prawdziwego zdarzenia, lecz jako że to wciąż rozwiązanie niszowe na rynku gier, mało kto w ogóle bierze to pod uwagę (na razie).

      Skomentuj

      1. Smuga
        Oceń komentarz:

        1    

        Opublikowano: 2018-10-25 11:17

        Nie "na razie" a raczej "już". Twórcom się to po prostu nie opyla. Takie konfiguracje ma 1% użytkowników, znacznie więcej ma po prostu jakiegoś dokoksowanego Ti czy Titana, a i tak są oni mniejszością. Sam coś o tym wiem, bo mi nie chciało by się wkładać czasu i pieniędzy w optymalizowanie czegoś co nie przyniesie mi żadnych korzyści. Zwłaszcza, że niskopoziomowa obsługa leży pro stronie programistów gry a nie producencie GPU.

        Skomentuj

        1. MokryN
          Oceń komentarz:

          0    

          Opublikowano: 2018-10-25 16:25

          Z tego co sie orientuje to KAZDA gra moze chodzic w SLI bo to zalezy od sterownika karty graficznej...

          Skomentuj

  5. Mateusz85
    Oceń komentarz:

    0    

    Opublikowano: 2018-10-25 11:54

    Dobrze, że powstał artykuł bo chciałem drugiem 1080 8GB MSI Gaming X dokupić, teraz się zastanowię nad sprzedażą i dopłaceniu do RTX-a 2080 bo Ti to już za dużo.

    Skomentuj

  6. MokryN
    Oceń komentarz:

    0    

    Opublikowano: 2018-10-25 16:24

    Moze i jest spadek wydajnosci (nie wiem nie sprawdzalem u siebie) ale moj 2x780 z monitorem G-sync (144Mhz) fajnie chodzi. Tak przy okazji wiekszosc tutulow AA ma wsparcie SLI. I moje leciwe 780 gtx chodzi w wiekszosci wypadkow jak 1070 gtx. Jedyne co musze zmienic w ustawieniach to rodzielczosc tekstur tak zeby nie przekraczalo (za bardzo) tych 3gb vram. I wszystko smiga jak trzeba :)

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!