Karty graficzne

Nvidia GeForce GTX 600: pierwsze zdjęcia karty z procesorem GK104

z dnia
Paweł Maziarz | Redaktor serwisu benchmark.pl
106 komentarzy Dyskutuj z nami

Premiera już w marcu?

W sieci pojawiły się pierwsze zdjęcia karty graficznej Nvidia GeForce z procesorem graficznym GK104, która rzekomo ma zadebiutować jeszcze w tym miesiącu.

Trzeba przyznać, że przez ostatnie dwa miesiące to właśnie AMD prowadziło na rynku kart graficznych. Na początku do sprzedaży trafiły wydajne modele Radeon HD 7950HD 7970, natomiast kilkanaście dni temu średnio wydajne Radeon HD 7750 i HD 7770. Warto również zaznaczyć, że już za parę dni ma nastąpić premiera kart Radeon HD 7850 i HD 7870, a więc konstrukcji o stosunkowo wysokiej wydajności i nie aż tak wygórowanej cenie jak w przypadku serii HD 7900.

Do sukcesu giganta z Sunnyvale przyczyniła się także zerowa konkurencja ze strony firmy Nvidia i brak potwierdzonych informacji o jej nowoczesnych kartach graficznych.. Okazuje się jednak, że już za niedługo sytuacja ta może się zmienić, bowiem dotarliśmy do pierwszych projektów i zdjęć jednej z flagowych konstrukcji „zielonych”

Nvidia GeForce GTX 600 GK104 Kepler karta graficzna zdjęcie

Opisywane zdjęcia przedstawiają próbkę inżynieryjną modelu z 28-nanometrowym procesorem graficznym Kepler GK104, a więc najprawdopodobniej kartę GeForce GTX 670 lub GTX 670 Ti. Tuż obok stosunkowo niewielkiego układu umieszczono osiem 256-megabajtowych (łącznie 2 GB) kości pamięci GDDR5 o 256-bitowej magistrali.

Referencyjna karta zostanie wyposażona w 5-fazową sekcję zasilania, która zostanie zamontowana nie pionowo (jak to zazwyczaj miało miejsca), a poziomo. Na jej śledziu pojawią się dwa wyjścia DVI, jedno HDMI i jedno Displayport, a obok niego dwa złącza SLI.

Nvidia GeForce GTX 600 GK104 Kepler karta graficzna projekt PCB

Warto również zwrócić uwagę na dodatkowe gniazda zasilające kartę. Producent po raz pierwszy zastosuje podwójne złącza, które z jednej strony ograniczą ilość zajmowanego miejsca na laminacie, ale z drugiej mogą uniemożliwić tworzenie jednoslotowych konstrukcji. Na projekcie powyżej można również zauważyć, iż PCB będzie przystosowane do montażu trzech takich złącz – dwóch 6-pinowych i jednego 8-pinowego.

Można więc przypuszczać, że do wyższych modeli (GeForce GTX 680?) będzie mogło być doprowadzone aż 375 W mocy – 75 W ze złącza PCI-Express 3.0 x16, 2x 75 W z wtyczek 6-pinowych i 150 W z wtyczki 8-pinowej. Czyżby zatem karty GeForce 600 charakteryzował wysoki pobór mocy?

Nvidia GeForce GTX 600 GK104 Kepler karta graficzna złącze zasilanie

Nvidia GeForce GTX 600 GK104 Kepler karta graficzna złącze zasilanie

Nvidia GeForce GTX 600 GK104 Kepler karta graficzna złącze zasilanie 8+6 pin

Niepotwierdzone informacje wskazują również, iż premiera karty graficznej Nvidia GeForce z procesorem Kepler GK104 ma nastąpić już 23 marca. Czekamy zatem z niecierpliwością.
 

Więcej o kartach graficznych Nvidia Geforce 600:

Źródło: Expreview, ChipHell, TechPowerUp

Komentarze

106
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    A gdzie sony 75 i gtx 460 ?

    Takie newsy to żer dla trolli.
  • avatar
    Konto usunięte
    Nic nie potwierdzone zobaczymy co z tego wyjdzie.
  • avatar
    MarJano
    to dobrze ze cos sie dzieje, kart w przedziale cenowym 600-800 zl (bo tyle chce wydać) bedzie latem sporo, bedzie w czym wybierać a musze cos z tym zrobić bo moj gtx450 mnie delikatnie rzecz ujmując wkur..a :D
  • avatar
    napierniczak321
    "Czyżby zatem karty GeForce 600 charakteryzował wysoki pobór mocy?"
    Mam nadzieję, że tak nie będzie. W dobie rosnących rachunków za prąd może być niewesoło. Ale w zamian za to powinny być wydajne.
  • avatar
    Kam9000
    Ja coś czuję, że to będzie podobnie jak co roku czyli geforce 680 trochę wydajniejszy od radeona HD 7970, g 670 równy z 7970 plus duży pobór mocy w Geforce'ach.
  • avatar
    ADR15
    No czekamy, czekamy, ciekawe co pokażą.
  • avatar
    Konto usunięte
    2-piny w gnieździe zasilania wentyla? Coś mi tu śmierdzi...
  • avatar
    Konto usunięte
    Czuję, że Ati dlatego wywaliło takie ceny w kosmos bo jak teraz nie zarobią do wydania nowych kart konkurencji to będą leżeć i kwiczeć to chociaż teraz coś uszczkną szukając kasy u tych którzy ją mają czyli wśród bogatych.
    Przecież jeżeli karta GTX580 jest tylko o ok. 10% wolniejsza od najszybszej karty ATI nowej generacji to wiadomo że Nvidia nie wypuści wolniejszej tylko co najmniej o 40-50% szybszej od swojej poprzedniej a to znaczy że będzie szybsza o ok 30-40% od ATI. Tyle, że jak ATI wywaliło takie ceny to ile teraz Nvidia będzie krzyczeć za swoje ?
    A pomyśleć że kiedyś kibicowałem tej firmie że Nvidia to moloch a biedne maluczkie ATI musi konkurować z tą złą firmą a teraz sytuacja się zmieniła teraz to Ati jest zły policjant a Nvidia ten lepszy.
    W sumie to obie firmy tworzą idealny przykład monopolu

    To jest tak w moim odczuciu.
    Dzwoni Nvidia do ATI i mówi:
    -macie 3 miesiące zanim wypuścimy swoje karty i będą szybsze od waszych
    Ati odpowiada:
    -ok. to przez te 3 miechy chapiemy ile się da, walniemy wyższe ceny a gdy wy wypuścicie swoje i wycenicie je podobnie to wtedy my
    zejdziemy z ceny a i tak wszyscy więcej zarobimy.

    I tak to idzie latami 2 firmy zawsze się dogadają. Musieli by być idiotami żeby na prawdę ze sobą konkurować a cała reszta to marketing.
  • avatar
    Andari
    i to jest właśnie nvidia... Wiele pradu, wielkie temperatury i wysoka cena ;x
  • avatar
    takewon
    No tak patrząc na te zdjęcia, to może i układy będą wydajne (może nawet bardziej niż konkurencji), to jednak martwi prądożerność tego układu. Ale skoro tyle czasu zwlekali z premierą, to myślę, że uporali się z tym problemem. Nic tylko czekać na pierwsze testy.
  • avatar
    Plo1983
    Nie wiem czemu się czepiacie ceny. Jak ludzie przestana kupować po danej cenie wtedy producent ją obniży. Jedno jest pewne im większa konkurencja tym lepsze ceny dla nas. Ja jestem fanem zielonych ale wiem że jakby zabrakło konkurencji to bym dalej siedział na GF8600GT a tak mam GF9700GT :P a w planach GF560TI ale to dopiero jak pojawią karty GF6xx.
  • avatar
    Konto usunięte
    bardziej inżynieryjnej to ja jeszcze nie widziałem :D
    a co do pomysłu z podwójną kostką
    to chyba na ryj padli
  • avatar
    9e0r9e
    Chyba zapominacie o jednym - Radeonki 7000 nie mają stanowić konkurencji dla Keplerów, tylko dla GTX 500! Flagowy GTX 680 (jednoprocesorowy) ma wyjść w grudniu, podczas gdy 7970 już wyszedł. A zazwyczaj ATI premierę swoich najlepszych przewiduje na grudzień, więc zapewne wtedy wyjdzie konkurent dla GTX 680, czyli 8970 - kto wie, może nawet także na 512 bitach?!

    Czy naprawdę nikt z Was tego nie zauważył?!
  • avatar
    KaYteck
    Ciśnie się na usta: "Banda kretynów". Oczywiście nie wszyscy, tylko Ci którzy twardo obstają przy jednej firmie. Jakie ma znaczenie nalepka producenta na karcie graficznej? Trzeba wybierać kartę, która w danej chwili jest dla mnie najlepsza!!! Wiadomo, każdy by chciał 7970 czy 680 (jak wyjdzie), tylko do tego też trzeba mieć porządne cpu, mobo, memorkii a nie 7970 i ciupać w gierki na Salcesonie!
    Rozpisałem się trchę, konkludując liczy się cena/fps czy cena/wydajność per wat.
  • avatar
    vieri37
    Może i ciekawe ale niestety z zakupem tej karty trzeba pomyślec o prywatnej elektrowni do niej, fakt sam jestem posiadaczem nvidi 8800 ale kiedy popatrze jak radeony ida w pare z wydajność/pobór mocy to stwierdzam iz wole czekac na premiere 7870 lub zakupic za max 800 zł 6950 a do monit 17' wiecej mi nie trzeba
  • avatar
    Eklerek
    Wszystko fajnie, ale pewnie pobór mocy na poziomie GTXa 480 :D
  • avatar
    Konto usunięte
    Koleś gtx jest takim idiotą,że aż miło:)
  • avatar
    Konto usunięte
    Dzięki takim przychylnym komentarzom uzależnionych od nich fanów mega korporacji AMD, firma ta wykorzystując ten fakt strzyże swoje owieczki niczym pasterz wysokimi cenami w podzięce za ciepłe owcze mleko ( słowo )
    Parodia jak dla mnie. Do tej pory myślałem ze z firm tylko "Jabłko" ma taki fan klub ale oni przynajmniej mają normalne produkty dla normalnych ludzi a dzisiaj to już i tak dużo i za to trzeba zapłacić, ale za co płacić AMD ?
    Mniejszy proces produkcji - powinny być tańsze.
    Tylko nieznacznie szybsze od rocznych kart konkurencji a droższe o 50% - powinny być tańsze.
    Apeluje do Was byście mieli trochę rozumu i nawet jak macie kasę na kartę za 3 tyś to żebyście nie dawali się nabijać firmie obracającej miliardami i nie nabijali kabzy min. spekulantom i grubym prezesom za pół produkt niech się najpierw wysilą bo niedługo za 5% wydajności będziemy bulić 100% ceny.
    Pozdrawiam wszystkich nie fanów a normalnych klientów którym trzeba czegoś więcej niż jakiegoś cwaniaka od marketingu by tak skutecznie wyprać umysł. Jeżeli Nvidia będzie szybsza o powiedzmy 10% od Ati to karty hi-end powinny być za jakieś 4 tys dostępne.
    Przy tym co zrobiło AMD z cenami to powinien być bojkot tej firmy na całego wtedy by zaczęto szanować nas Polaków bo nas jest 40 mln ludzi nie jesteśmy kur.a jakąś wysepką z 3 murzynami na bananowcu to jest kupa potencjalnych klientów zwłaszcza że u nas rządzi niepodzielnie pecet a ceny wyższe jak dla bogatych Niemców czy hamburgerów.


  • avatar
    19arek93
    Przeczytałem wszystkie komentarze pod tym newsem i niestety większość z nich utwierdziła mnie w przekonaniu że dobrze robię załatwiając sobie robotę w Irlandii. TROLE!
    -1
  • avatar
    Konto usunięte
    Na oficjalnym profilu włoskiego oddziału Nvidii w serwisie facebook pojawiło się tajemnicze ogłoszenie związane z nadchodzącą, nową generacją kart graficznych z układami Kepler. Ogłoszenie w języku angielskim znaczy "Waiting for Kepler ... patience, patience, patience, the right time will come, and then ... it will be unbeatable!", co można przetłumaczyć jako: "Poczekajcie na Keplera, nadejdzie we właściwym czasie i będzie nie do pokonania". Można zatem uznać, iż rozpoczął się kolejny etap podgrzewania atmosfery przed oficjalną premierą kart. Kilkanaście dni temu Jen Hsun Huang stwierdził, iż Kepler to najlepsze układy graficzne, jakie kiedykolwiek udało się stworzyć jego firmie.

    Aby przekonać się czy tak będzie naprawdę, musimy poczekać. Najbliższą okazję do prezentacji swoich nowych kart firma będzie mieć już w przyszłym tygodniu podczas targów CeBIT, lub podczas organizowanej przez siebie w San Francisco konferencji Game Developers Conferencje 2012

    -2
  • avatar
    Lightning
    Widać, że procesor graficzny ma znacznie mniejszą powierzchnię niż GF100 / 110. Śledź też jest duży co może oznaczać obsługę większej ilości monitorów niż w przypadku Fermiego.

    BTW jeśli już wyciekają pierwsze zdjęcia to znaczy, że premiera już tuż tuż. Ciekawi mnie tylko jakiego producenta (partnera) jest ta karta (żaden Fermi nie miał płytki w tym kolorze).

    "będzie mogło być doprowadzone aż 375 W mocy" taaa a o Radeonie HD 7970 też teoretycznie można powiedzieć, że może brać niemal 300 W (patrząc na wtyczki). Trzeba czekać na testy.
    -2
  • avatar
    Konto usunięte
    dawno już widziałem tą kartę
    -6
  • avatar
    Konto usunięte
    Tyle tu mądrali, a nikt się nie zorientował po co taki układ złącz jest zastosowany? Jestem przekonany że chodzi właśnie o to aby UMOŻLIWIĆ stosowanie jedno-slotowego chłodzenia, na referencyjnej karcie. Co prawda trochę trudno sobie je wyobrazić, biorąc pod uwagę high-endowe "zapędy" karty, ale zawsze można liczyć na 28-nanometrowy proces... Niemniej nie ma szans że do układu "tak na wszelki wypadek" dorzucono by dodatkowe złącze zasilające, po to tylko aby się lepiej podkręcał. Przynajmniej nie w referencie.
    -7
  • avatar
    Konto usunięte
    No nie ile tych wtyczek nawalili ;/ Dobrze, że teraz jestem za Radeonami. Coś mi się wydaje, że to będzie niewypał.
    -9
  • avatar
    Konto usunięte
    "Do sukcesu giganta z Sunnyvale przyczyniła się także zerowa konkurencja ze strony firmy Nvidia i brak potwierdzonych informacji o jej nowoczesnych kartach graficznych..."
    Jakim sukcesie... zawiewa to niebywałym funboystwem...
    -10
  • avatar
    Konto usunięte
    Nadchodzi wielkie swieto, oby Kepler starl imie radeonkow z pamieci fanow gier i przyczynil sie do rozwoju branzy gpu i gier. Jest szansa, ze Nvidia nie bedzie tak absurdalnie wycenial swoich demonow, nie powinna przede wszystkim okradac swoich fanow jak robi to kiepski rywal.
    -88
  • avatar
    walker15130
    Jeszcze jedna generacja kart i potrzebna będzie do nich wtyczka ATX 24pin :D Wątpię aby taki potwór potrzebował aż tyle, ale karty od producentów uczą że referent to cienizna. Może lepiej do topowych wrzucić więcej zasilania nawet gdyby nie było konieczne (możliwość działania na 6+8 pin, a po dołożeniu kolejnej wtyczki mamy dodatkowe 2-3 fazy zasilania?). To by było ciekawe.
  • avatar
    Konto usunięte
    Powiem tyle,z niecierpliwością czekam na pierwsze testy:)
  • avatar
    Konto usunięte
    Zawsze byłem zwolennikiem kart Nvidia. Mam chrapkę na jedną z najwydajniejszych kart (GTX 690 ?) lub (radeon HD 7970?) to jeżeli karta nvidia bedzie pobierała więcej prądu to biorę w ciemno radeona nawet jeżeli jego wydajność była by mniejsza o ok 10 klatek na sekundę i tak bym wziął radeona.
  • avatar
    9e0r9e
    Jeszcze jedno - obecne wyniki HD 7000 nie biorą uwagę właściwego działania na Ivy Bridbe i MB z chipsetem Z77, więc i bez PCI-E 3.0. Poczekamy, to się przekonamy jakie są właściwe wyniki.
  • avatar
    Konto usunięte
    Szkoda,że tylko na ivy będzie działać pci-e 3.0:(
  • avatar
    sonek231
    A no czekamy, czekamy
  • avatar
    Konto usunięte
    Na razie to tylko wróżenie z fusów, trzeba poczekać na premierę oraz testy.
  • avatar
    Konto usunięte
    Oby ta karta wyszła nam w tym marcu, -ciekaw jestem tej pewności siebie Nvidii jeśli chodzi o wydajność
  • avatar
    Konto usunięte
    Zapowiada się naprawdę ciekawie, mam nadzieję, że Nvidia pokaże pazur.
  • avatar
    shamoth
    Heh, sądząc po długości karty i 2-slotowym chłodzeniu znowu horrendalny TDP będzie... jak tak dalej pójdzie to zamiast obudowy będziemy używać kadzi chłodniczych wypełnionych olejem mineralnym...