Karty graficzne

Dwurdzeniowy GTX od nVidii?

W czerwcu tego roku zarówno ATI jak i nVidia zdołały wprowadzić swoje nowe układy. Mimo, że premiera tych kart odbyła się w niemal tym samym czasie, "zieloni" do dzisiejszego dnia nie zdołali wydać dwurdzeniowego GT200. Głównymi powodami były zapewne zbyt duży pobór energii, wysokie temperatury i słaba sprzedaż najnowszych układów w porównaniu do Radeonów z serii 48XX.

Internetowy serwis Fudzilla podała informację, jakoby dwurdzeniowa karta nVidii z najmłodszym układem miała zostać zaprezentowana w grudniu. Na razie nie wiadomo zbyt wiele informacji na temat tych układów, ale redaktorzy Fudzilli twierdzą, że będą one wykonane w technologi 55nm.

Komentarze

24
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    0
    Wreszcie cos co pobije radka, ale jezeli przekroczy cene 2000zl to niech lepiej tworza dalej swoja kochana serie 9000 i zrobia GF9900GX4+
    • avatar
      Szymon331
      0
      2x230W= 460W mocy. Jeśli tyle pobierałby nowy GTX to ja montuję na dachu kolektory słoneczne. Greenpeace będzie dokonywał zmasowanych ataków na ciężarówki wiozące karty do sklepów. A za 2 lata lodowce przestaną istnieć... Lepiej niech zaczekają do technologii 45nm.
      • avatar
        SoundsGreat
        0
        Jeżeli będzie dobre skalowanie to to będzie grafika-kozak. Jednak pamiętajmy, że 9800GX2 niekoniecznie jest dwukrotnie wydajniejszy od 9800GTX, a to ze względu na słaba optymalizacje SLI. W przypadku Radeonów ostatnio jest znacznie lepiej, bo AMD/ATi popracowali nad tym swoim CrossFire. Pewne jest, że jeśli nowe GX2 ujrzy światło dzienne to nVidia przejmie koronę wydajności. Jednak równie pewne jest dla mnie, że ze względu na cenę, tą kartę kupi może z 10 osób :/
        • avatar
          PrEzi
          0
          Oprocz karty powinni dodawac gratis mini-reaktor atomowy do jej zasilania oraz chlodziarko-zamrazarke do jej chlodzenia.
          Od uzytkownika wymagany by byl tylko worek pieniedzy i juz moglby sie cieszyc wynalazkiem NV.
          Jak dla mnie jest to totalna bzdura - chwyt marketingowy zeby 'przejac korone wydajnosci' - co z tego skoro ilosc sprzedanych kart bedzie mozna na palcach jednej reki policzyc.
          Poza tym nawet najmocniejsze Nehalemy tak czy tak stanowic beda 'wąskie gardło' dla takiego wymysłu.
          • avatar
            Konto usunięte
            0
            Powinni koniecznie dodac pamieci, mysle ze jakies 2x 2Gb bedzei ok na poczatek. Potem Asus wypusci jakas "lepsza" wersje np. 280GTX x2 2X4Gb. he he
            jak ktos polaczy takie karty w SLI , to przyda sie jakis porzadny zasilacz np 2500W !!!
            Szkoda tylko, ze moja gierka Warhammer Online nie bedzie lepiej chodzic, bo juz chodzi plynnie na max.
            Ale jak podepne taka GTX x2, to moze bede mial 350 FPS !!!
            Albo moze wykozystam CUDA i MS Word lub Explorer beda sie otwierac z predkoscia swiatla.
            Juz widze te kolejki w sklepie, hehehe !!!!!!!!!!!!!!!!!!!!!!!!
            • avatar
              darek11
              0
              Moj zasilacz ma 450W xD Moze niech przypakuja i schladza jeden uklad, a nie dolaza drugi, dwa razy wiecej energi pochlonie, wydzieli super cieplo, a jak to z grami bywa i ich "przystosowaniem do srodowiska" nie bedzie czerpac pelnymi garsciami, i nawet physx im nie pomoze ani zadne CUDA...
              • avatar
                Loofah
                0
                GTX280 to idealna karta do 1680x1050. Do czasu, aż ukaże się HD4850X2 z cichszym od Sapphire'owskiego chłodzeniem.
                Układ całkiem udany, ale jego pobór mocy, bardzo wysoki przecież, pomnożony przez 2, zabije większość zasilaczy. Do tego energożerny Nehalem i bez 700W nie ma co próbować nawet.
                W dodatku CF się lepiej skaluje od SLI. Dorzućmy do tego, że nVidia nie jest zbytnio nastawiona na SLI z więcej niż 3 GPU i widać wyraźnie, że QuadFire HD4870X2 nadal będzie królem wydajności. Bo połączenie dwóch GTX280GX2 da wydajność na poziomie 3-way SLI GTX280. A smutna prawda jest taka, że HD4870X2 CF bije w duecie z Nehalemem 3-procesorowy zespół nVidii.
                Do 1920x1200 i 2560xbóg wie ile i tak w zupełności wystarczy HD4870X2, który najprawdopodobniej będzie 1000 złotych tańszy i wymagać będzie słabszego procesora i mniej potężnego zasilacza. Nie wiem po co nVidia się w to pcha. Niech lepiej zrobią kolejny porządny, wydajny jednoprocesorowy układ. GTX280 wbrew pozorom całkiem im się udał. A że teraz młóci go zupełnie HD4850 CF czy X2 - no cóż, co 2 GPU to nie jeden :E
                • avatar
                  Konto usunięte
                  0
                  i dobrze że zrobią kolejnego z serii 200, dziwne że dotychczas inwestowali tylko w tehcnologię ulepszonych 8800gtx->9800gx2.
                  Wogóle to nvidia sama sobie wprowadza problemy produkując 2 technologie jednocześnie, użytkownicy wolą nowsze radeony mimo że wcale szybsze nie są. Taki hd4850x2 to wg mnie nieporozumienie, jak już robić podwójną kartę to tylko z high ednowych układów. Zamiast tej karty można przecież zainwestować w słabszego hd4870 albo dołożyć do hd4870x2. Wogóle to mimo że wolę ATI to seria hd4000 wcale taka mocna nie jest, szczególnie w porównaniu z 280 i 260, pojedyńcze układy znowu biją radeony.Ta sytuacja już była w hd3870x2, zbytnio się karta nie przyjęła. Kiedy wreszcie obie firmy zaczną prawdziwą rywalizację tak jak 2 lata temu 7950gtx vs x1950xtx ??????
                  • avatar
                    Konto usunięte
                    0
                    Obojętnie z czym Nvidia nie wyjdzie to i tak zostanie pokonana przez AMD/ATI po za tym nie zapominajmy ze w przyszłym roku ATI przeprowadzi zmasowany atak na pozycje Nvidii z górnej półki Radeonami HD z serii 58xx które będą miały po 5 rdzeni na płytce a póki co mamy wyśmienitego Radeona HD 4870 który namieszał tak w testach, że wychodzi na to iż znakomita Nvidia nie jest już tak znakomita jak to było jeszcze jakiś czas temu, ale wszystko jest możliwe, nawet czarnoskóry prezydent USA:)))
                    • avatar
                      Konto usunięte
                      0
                      Nvidia jest firmą, która robi wiele szumu nabijająć klientów w butelkę (vide "wielka seria 9xxx)... niestety... Polityka ATi/AMD wobec klienta jest znacznie bardziej klarowna, a ich produkty z ostatniej serii są bardzo dobre, żeby nie rzec rewelacyjne. Dlatego Radeon 4870/4850 są obecnie najrozsądniejszą propozycją. Zobaczymy co przyniesie przyszłość :) już nie mogę się doczekać HD 5xxx ;)
                      • avatar
                        naviretlav
                        0
                        Ja do nvidi jestem przywiązany i sie z tego ciesze .
                        Jak radeon da mi opcje odpalenia 100% działającego Nvidia/Ageia PhysX to zastanowie sie nad zmianą.
                        Nvidia potrafi CUDA ... a łamanie RARa lub wi-fi na najmocniejszych kartach to potwierdza.
                        • avatar
                          Dzban
                          0
                          No właśnie lol dla naviretlav. A masz jakiś software który może używać CUDA? ja takiego nie zauważyłem.
                          • avatar
                            Konto usunięte
                            0
                            @frizz

                            No wlasnie chyba jest dokladnie odwrotnie. Przez dlugi czas to AMD/ATI robilo tylko szum, prezentujac coraz to nowe dane na papierze i obiecujac jaka to ich karta bedzie wydajna.
                            Przez 1,5 roku nie byli w stanie zaoferowac ukladu o wydajnosci chocby zblizonej do 8800GTX.

                            Nagle od 4 miesiecy maja atrakcyjny cenowo produkt a nVidia jest "tym zlym".
                            Wydajnosc kart nVidii nie zmalala przeciez po wprowadzeniu seri 4xxx przez AMD. Owszem - cenowo - zwlaszcza na poczatku byly one drozsze, ale obecnie odpowiedniki kosztuja porywnywalna sume.

                            Poza tym - najszybszym - poki co - ukladem dysponuje nadal nVidia - AMD musi posluzyc sie karta z dwoma ukladami aby pokonac GTX 280.

                            Anyway - tak naprawde - decyzja zalezy od tego, w CO konkretnie sie bedzie gralo. W moim przypadku - wiecej jak polowe czasy spedzam przy Flight Simulatorze, a niestety optymalizacja sterownikow ATI pod FS jest beznadziejna.
                            Co wiecej - powiedzialbym, ze karty bVidii dzialaja bardziej "rowno". W przypadku ATI/AMD - jesli firma przylozy sie do optymalizacji nowej wersjki sterownika, to owszem - widac w konkretnej grze postep. Jesli nie, to CrossFire nie dziala nawet na karcie typu X2.
                            A ja nie mam zamiaru czekac nie wiadomo ile, az firmie zechce sie optymalizowac sterownik pod konkretna gre.

                            Dlatego tez uwazam, ze - na razie - jednoukladowe rozwiazania maja przewage.
                            • avatar
                              max-bit
                              0
                              Czarno to widze nawet w 55nm TPD tej karty bedziw wynosic z 180 W co w układzie podwójnym daje ni mniej ni wiecej z 350 W ???
                              Wiec problem jest jeden jak to schłodzic ?
                              Najwieksze proce biora 140 W i do tego potrzebny jest niezły schładzacz a jak zamontowac takie 3 na karcie PCI ?
                              Najpoteżniejszy 4870x2 ma TPD 290 W i juz musi miec ponad wymiarowe chłodzenie (nie mieście sie w większosci "normalnych obudów"
                              tu mamy jeszcze ok 60 W wiecej

                              A w SLI :) co 2x 350 W daje 700W
                              Miejmy wypasionę płytę plus proc
                              proc 130W (corei7) płyta 100 W
                              Jakieś pamieci 5x4 20W
                              Dysk RAID 40 W plus dodatkowy 20 W
                              Nagrywarka 15 W

                              Jakies karty MB 20 W

                              Wentylatory ok 20W

                              700 + 130 + 100 + 20 + 60 + 15 + 20 + 20 Wiec 1200W zasilacz to tak na styk (w sumie mało bo sam zasilacz przy sprawności BDB 90 %) bedzie pracował na styk.