Karty graficzne

Karty NVIDIA z GT300 już w listopadzie??

Dariusz Wieleba | Redaktor serwisu benchmark.pl
Autor: Dariusz Wieleba
72 komentarze Dyskutuj z nami

Koncern NVIDIA prawdopodobnie w listopadzie zaprezentuje pierwsze karty graficzne wyposażone w chipy GT300. Dotychczas datę ich premiery określano na czwarty kwartał tego roku, lecz teraz terminarz ten jest nieco bardziej sprecyzowany.

Niestety musimy ostudzić zapały wszystkich oczekujących na najnowsze karty NVIDII - mimo premiery w listopadzie, ich sprzedaż ruszy pełną parą dopiero na początku 2010 roku. Do tego czasu w sklepach znajdziemy je w bardzo małych ilościach lub nie będą one dostępne wogóle. "Zieloni" nie ruszą od razu z masową produkcją prawdopodobnie dlatego, że liczą się z faktem, iż karty w cenie ponad 600$ znajdą niewielu nabywców i nie muszą się spieszyć. W przypadku, jeśli dojdzie do opóźnień w produkcji high-endowych układów z GT300, NVIDIA będzie najprawdopodobniej zachęcać klientów do zakupu kart GeForce GTX295 opartych na pojedynczym PCB.

Miejmy nadzieję, że pierwsze karty z chipem GT300 trafią do sprzedaży jeszcze w tym roku, a ich cena będzie przystępna.

Źródło: Fudzilla, informacja własna

Komentarze

72
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    XaRaDaS
    Ta NV i przystępne ceny ;) zresztą pewnie w Polsce przed świętami ich nie zobaczymy, chyba że ktoś ma znajomych za oceanem :D
  • avatar
    gruby86
    600$ czyli w Polsce około 2000-2500 złociszy. Na razie poczekam na GT400, chyba, że mój GTX260 spasuje bo DX11 wymusi zmianę karty na GT300.
  • avatar
    Konto usunięte
    A mi się coś zdaje, że ATI uderzy cenowo... :D
  • avatar
    Brandar
    Hmmm listopad i później... To bardzo zmienia moje plany.
  • avatar
    b1tzz
    Tylko nie wiem po co robić kolejną kartę, skoro GTX285 daje rade sobie ze wszystkimi grami na maksymalnych detalach -.^

    Wiem, że dla kasy, ale to głównie przez idiotów, którzy kupują "nowości" kilka dni po premierze i napędzają machinę -.-
  • avatar
    Konto usunięte
    chciał bym mieć na pokładzie jakiegoś gt300
  • avatar
    tanakov
    Ciekawe ciekawe... Najpierw jednak musze chyba zamontować elektrownie w domu...
  • avatar
    Konto usunięte
    noo w sam raz... wyjdzie seria 3xx.... pol roku, karty beda w przystepnej cenie, a moj 8800gtx zestarzeje sie z godnoscia.. narazie w 1680x1050 na full detalach daje rade we wszystko co gram (procz battlestation pacific, antialliasin 8x zabija go) :)
  • avatar
    lwses
    b1tzz dokladnie zgadzam sie z tym co napisales,chcąc wykorzystac potencjał takiej karty to musieliby zrobic lepszą gre od crysisa bo gra crysis przy jego wydaniu wyprzedziła o 4 lata pozostale gry,dlatego większosc traktuje crysisa teraz nie tylko jak gre lecz benchmark do testów wydajnosci kart i procków i faktem jest to ze teraz smigają gry ma maxa więc po co komu GT300??? dlatego bedzie ich mniej w sprzedazy.Tak jak napisal b1tzz idioci napedzają rynek pozniej placzą na częste zmiany podzespołów he,a to co obecne na rynku z powodzeniem na bardzo dlugo starczy uzytkownikowi np.gtx280 choćby by był już na rynku ten GT300:)

    wypowiedzi na temat kasy ze ktos ma to kupi tylko po co??? nie dla samej wydajnosci bo nie wykorzysta tego,lecz by sie pokazac :)
  • avatar
    danieloslaw1
    600$ To malutko jak na pierwszą cene!!! GTX295 to było 550 "ojro"!
    Z początkiem oku będzie moze 500$ a dolar ma stać 2,4zł czy mniej.
  • avatar
    Konto usunięte
    W sumie ciekawe jakie to bedzie miało faktyczne możliwości i czy bedzie sens przesiadać się z obecnych układów.
  • avatar
    studencikus
    w cenie jednej tej karty bedzie pewnie mozna zlozyc zestawik do spokojnego grania w najnowsze tytuly :).. a z taka karta to pewnie jakis nowy rekord padnie w smarkach i fanboye sie beda cieszyc :P ( dalej posiadajac gf seri 2 :P )
  • avatar
    Konto usunięte
    To też zależny od twórców gier i tego na czym gramy... Pomyśleć tylko jakie zastosowano ukł. graficzne w konsolach a teraz porównać do tego co mamy w blaszakach... Jak gry wyglądają na konsole a jak na PC ? Ile pobierają energii konsole a ile sama karta graficzne pokroju 2x 4xxx ATI lub 2x 2XX NV
    Jedynie strategie maja jako taki sens na PC a reszta gier tylko na konsole, zresztą do nich tez można podłączyć myszkę klawe i co tam jeszcze się chce...
    Wole sobie kupić konsole i grac spokojnie niż martwic się tym czy procesor da rade, ramu starczy lub zastanawiać się czy lepiej kupić ATI czy NV.
    No ale cóż poradzić jeśli wojna fanboj kontra fanboj nadal trwa... I zawsze znajdzie się taki, który będzie się doszukiwać wyższości jednej firmy nad druga.. technologi.. lub czegokolwiek innego...
    Trochę to żałosne ale fajnie się czyta bo można się pośmiać :D
    Pozdrawiam.
  • avatar
    Konto usunięte
    Lol, ale wojna NV v ATi
    Najbardziej rzucającą się kwestią w oczy jest to, że użytkownicy ATi znają fakty, a fani NVidii wymyślają bzdety czy gloryfikują NV.
    Plmae i Krzychu2009 - proszę, przestańcie trollować.
  • avatar
    Konto usunięte
    lol, pokaz mi jeden bzdet ktory wymyslilem, widac, ze jestes fanem ati, ale myslisz, ze obrazajac innych jakos ich wesprzesz w tej dyskusji?
  • avatar
    NomadDemon
    skonczcie dzieciaki...
    wyszlibyscie na dwor, jedni i drudzy... to byscie mieli "grafike"
  • avatar
    Konto usunięte
    "pomysl, czemu ati musi pchac 800 rdzeni gdy nvidii wystarczy ich tylko 240? czemu ati musi wprowadzac drogie ddr5, gdy nvidia ma i tak lepszy bandwidth na ddr3? co z tego, ze ati ma 40nm? przecietny user i tak tego nie zobaczy..."
    4. Pfff hahahahaha :DD
    DDR5= mniejszy proces wykonania, tańsza technologia, mniejsza temperatura, mniej skomplikowane PCB bo aby osiągnąć taką samą przepustowość co NV potrzebna mniej ścieżek. Do tego 4ro kanałowość.
    Poza tym sam sobie przeczysz. Twierdzisz że wsparcie DX11 typu teselacja jest dla ATi niewykonalne, bo wymaga "jakiś ficzerów hardware'owych" a jednoczesnie twierdzisz że NV mogłaby "update'ować drivery" i miałaby już DX 11... Hmmmmmmmmmmm :D
    Co do twojej tezy compute shading a CUDA - jakiekolwiek źrodła, czy to twoja gadka? Nawet nie chce mi sie tego obalać, trollu. Gadka a gadka.
    BTW Rob, to ATi pierwsze zrobiło API pozwalające wykorzystywać GPU do obliczeń innych niż graficzne, a NV zrobiła z tego zrzynke i dodała PhysX'a. Więc prawda leży gdzie indziej.
    A NomadDemon ma rację : ja sobie spadam na rower ^,^