Karty graficzne

CUDA pogrążyła NVIDIĘ

Dlaczego potężna NVIDIA, której pozycja wydawała się być przez ostatnie lata niezagrożona, oddała koronę wydajności firmie ATI? Jedna z teorii mówi o tym, że zawiniło nadmierne zaangażowanie koncernu z Santa Clara w technologię CUDA.

Przypomnijmy, że CUDA pozwala na uruchamianie specjalnie przygotowanych aplikacji na procesorze graficznym (GPU), co przynosi kilku-, a czasem nawet kilkudziesięciokrotny przyrost prędkości w stosunku do tej samej aplikacji uruchomionej na procesorze głównym (CPU). Technologia ta obsługiwana jest na kartach GeForce 8 i nowszych, a korzystają z niej np. programy obliczeniowe, enkodery video, czy ostatnio wypuszczony pakiet Adobe CS4, służący między innymi do profesjonalnej obróbki grafiki i nieliniowego montażu filmów.

Z jednej strony, praca nad rozwijaniem CUDA to dobry ruch, dający NVIDII możliwość wejścia na nowe, profesjonalne rynki. Z drugiej strony, optymalizacja GPU dla tego API mocno skomplikowała budowę procesorów graficznych, co spowodowało olbrzymie problemy z przejściem na proces technologiczny 55 nm. Po drugie, poświęcone na rozwijanie CUDA siły i środki nie zostały spożytkowane na funkcje istotne z punktu widzenia najważniejszej dotąd grupy odbiorców produktów NVIDII - graczy, entuzjastów i zwykłych użytkowników oczekujących dobrego stosunku wydajności do ceny. Z kolei ATI, przygotowując nową serię Radeon HD 4000 myślało przede wszystkim o szybkim 3D w niskiej cenie, zaniedbując przy tym optymalizację prędkości obliczeń w programach uruchamianych na karcie graficznej. W efekcie karty z serii GeForce najszybciej liczą struktury białek w [email protected] i przyspieszają działanie CS4, ale to ATI ma tańsze i wydajniejsze w grach karty graficzne, obsługujące w dodatku DirectX 10.1.

Czyja strategia okaże się skuteczniejsza w dłuższej perspektywie? Przekonamy się w ciągu kolejnych miesięcy. Na razie na zaistniałej sytuacji lepiej wyszło ATI, a nad NVIDIĄ zbierają się czarne chmury. Najprawdopodobniej taka konfiguracja utrzyma się co najmniej przez najbliższe pół roku.

 

Komentarze

13
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Gothar
    0
    Czy "CUDA pogrążyła NVIDIĘ"? Patrząc optymistycznie można sobie odpowiedzieć, że nie. Dlaczego? A to dlatego, ponieważ gdy pomysł CUDA osiągnie dużą popularność i będzie stosowana, gdzie by nie popatrzył to zbija milionowe "kokosy".

    Musieli się skupić na CUDA kosztem zaniedbania Kart Graficznych to normalne. Nie można prowadzić dwóch projektów, bo albo będzie się pracować nad jednym a dobrze, albo na obu, ale już nie z takim efektem jaki by się chciało osiągnąć.

    Potencjał nVidia ma i technologie więc to pewnie tylko chwilowe zawahanie.

    Dzięki temu posunięciu "zielonych" ATI odbiło się od dna wprowadzając serię 4800 i rozbudziło nadzieję graczy, że można coś kupić wydajnego nie koniecznie przepłacając.
    • avatar
      Konto usunięte
      0
      "
      Przypomnijmy, że CUDA pozwala na uruchamianie specjalnie przygotowanych aplikacji na procesorze graficznym (GPU), co przynosi kilku-, a czasem nawet kilkudziesięciokrotny przyrost prędkości w stosunku do tej samej aplikacji uruchomionej na procesorze głównym (CPU). Technologia ta obsługiwana jest na kartach GeForce 8 i nowszych, a korzystają z niej np. programy obliczeniowe, enkodery video, czy ostatnio wypuszczony pakiet Adobe CS4, służący między innymi do profesjonalnej obróbki grafiki i nieliniowego montażu filmów."

      CS4 NIE korzysta z CUDA. Korzysta z wsparcia OpenGL.
      • avatar
        adam1004a
        0
        CUDA sie mi podoba. ci co robia duzo fotek i je potem poprawiaja w ps beda mieli duzy problem przy wybraniu karciochy. ja bym dzis wybral nvidia wlasnie przez cuda. lata mi polecialy i juz nie lupie w gry jak kiedys. zreszta nvidia nie odbiega az tak mocno od ati jesli chodzi o wydajnosc. znajac nvidie to cuda bedzie nawet obslugiwal kalkulator windows. nvidia ma duze zaplecze jesli chodzi o software. amd/ati raczej cienko.
        • avatar
          Konto usunięte
          0
          Co z tego że mają tą CUDE skoro i tak większość posiadaczy kart graficznych z tej technologi nie skorzysta? Co najwyżej PhysX ale ta technologia jeszcze się rozwija. Co do kart Nvidi: jej karty wcale nie odbiegają od konkurencji (AMD/ATI) ale co z tego skoro są sporo droższe, i póki co nie opłaca się płacić więcej za technologię która nie jest wykorzystywana. Poczekamy, zobaczymy.
          • avatar
            Promilus
            0
            W DX11 bedzie miec model shaderow obliczeniowych dzialajacych na podobnym poziomie sprzetowo-programowym co cuda czy ctm wiec akurat popularnosc spadnie. ati lansowac bedzie dx11 oraz opencl - dzieki szerokiemu wsparciu apple - gdyz ta firma tworzy ten standard - ati moze liczyc na szersze grono uzytkownikow niz cuda nvidii - szczegolnie profesjonalistow. Na dzien dzisiejszy CUDA moze i cos potrafia zdzialac, ale za rok-dwa moze sie okazac ze to byla szybko gasnaca gwiazdka, ktora przycmia bardziej otwarte standardy.
            • avatar
              Konto usunięte
              0
              No ATI ma też swoja technologię tyle że słabiej rtozwinięta i mniej spopularyzowaną:
              CTM -> http://en.wikipedia.org/wiki/Close_to_Metal
              oraz
              HAVOC'a
              http://www.fudzilla.com/index.php?option=com_content&task=view&id=7855&Itemid=34
              http://www.fudzilla.com/index.php?option=com_content&task=view&id=8372&Itemid=34
              Co prawda fizyka jest jeszcze na barkach CPU, ale jak opanują i odpowiednio dostosują to zostanie przeniesione na GPU.

              Pzdr.
              • avatar
                danieloslaw1
                0
                Co tu dużo mówić jak nvidia zrobi gtx 350 z 2gb na pokładzie to raduś mo w(sami wiecie w co).Nvidia ma mniej klatek ale za to lepszą grafe co byście wybrali? Ja grafe!
                • avatar
                  Konto usunięte
                  0
                  Płakać mi się chce jeżeli słysze że ktoś posiada karte ATi. Fakt może i są szybsze ale ich sterowniki są idiotyczne !! Często powodujace zawieszki problemy z obrazem i w dodatku NIEWYŚWIETLAJACE WSZYSTKIEGO W 3D !! i to dlatego są szybsze !
                  • avatar
                    Konto usunięte
                    0
                    Miałem GF256DDR, 2MX400,GF FX5600, R9800pro, X800pro a teraz mam Gf8800GTS 512 i coż nie licząc czasami prawdziwych wpadek ze sterownikami to zarówno nvidii jak i Ati zdazaly sie wpadki...
                    w przypadku ati kiedys warto bylo wylaczyc recovera i tyle..

                    • avatar
                      Konto usunięte
                      0
                      Sam mam GF i powiem Ci że teraz to AMD/ATI lepiej wspiera swoją kartę sterownikami jak nV. Zobacz sobie aktualizację samych sterowników. Wyścig trwa kto wygra ? Zobaczymy. Przy CUDA jak i openCL liczę na unifikację na jednej karcie jaka miała miejsce przy dX i openGL. Myślę że języczkiem u wagi stanie się tutaj karta graficzna Intela. Najszybciej wygra ten standard który jest tańszy, nie wymagający opłat licencyjnych no i z większym wsparciem .