Karty graficzne

Specyfikacja techniczna GT300

z dnia 2009-09-30
Sebastian Ogłoziński | Redaktor serwisu benchmark.pl
77 komentarzy Dyskutuj z nami

Na podstawie zebranych do tej pory informacji, na temat nadchodzących kart graficznych nVidia GT300, seriws Bright Side of News opublikował specyfikację techniczą, jaką prawdopodobnie charakteryzować się będą nowe karty.

  • liczba tranzystorów powyżej 3 miliardów
  • procesor graficzny wykonany w 40 nm procesie technologicznym
  • 384-bitowy kontroler pamięci
  • 512 procesorów strumieniowych (przemianowane na CUDA Cores)
  • 32 CUDA Cores na jeden klaster Shader
  • 1 MB pamięci podręcznej L1 oraz 768 KB L2
  • do 6 GB pamięci GDDR5. Dla zwykłych użytkowników możemy się spodziewać kart z pamięcią 1.5 GB GDDR5.
  • Half Speed IEEE 754 Double Precision
  • natywna obsługa przez GPU - C (CUDA), C++, Fortran
  • wsparcie dla DirectCompute 11, DirectX 11, OpenGL 3.1 i OpenCL

źródło: Bright Side Of News

marketplace

Komentarze

77
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Kontroler pamięci nie miał mieć czasem 512 Bit ? :)
    Zaloguj się
  • avatar
    Może i będzie miażdżyć wydajnościowo, ale ciekawi mnie jaki zasilacz trzeba będzie pod kupić. Szczerze wątpię, żeby pobierała miej niż 250W.
    Zaloguj się
  • avatar
    A nV nie projektuje GT300 od początku bo im w produkcji nie wychodził ?
    Zaloguj się
  • avatar
    Módlmy sie o cene 1500-2000 bylo by bosko naprawde. no wielkosc chipu napewno ogromna 3mld tranzystorow + L2 to bedzie kolo 550 moze 600mm^2. Obsluga C++ duzo dobrego moze wniesc. Zobaczycie jeszcze nvidia przechytrzy intela i wypusci za rok cos co bedzie w stanie obluzyc x86 i Dx 12 :D
    Zaloguj się
  • avatar
    Jeżeli nVidia chce przegonić 5870 muszą podnieść ilość tranzystorów na płytce min. o 227% taki był przeskok między 4870 a 5870 czyli dokładnie 1193mil tranzytów.Powierzchnia rdzenia poszła w górę o 148% (106mm2). ATI i nvidia przeszły(przechodzą) na 40nm proces tech więc mają podobne ograniczania dlatego mogę założyć za wartość % z przeskoku dokonanego na Radkach można przełożyć na GeForsy.

    Według mnie GT300/GT100
    Będzie mógł mieć takie parametry.

    227% 3178MLN Tranzystorów
    148% 695,6mm2 Powierzchnia rdzenia (zdeczka duża więc będzie i grzało nie źle^^)
    117% 238,68W

    Zaloguj się
  • avatar
    GDDR5 i DirectX 11? Oj będą CUDA! ;)
  • avatar
    1 MB pamięci podręcznej L1 oraz 768 KB L2 - to jest co najmniej dziwne.
    Zaloguj się
  • avatar
    Widzę, że CPU i GPU w jednym jest bliższe niż myślałem...
    Zaloguj się
  • avatar
    WTF?
    900 miliardow tranzystorow to ma HD4890/GTX285
    Ponad 2BLN ma 58x0.... Co to za bzdety.
    Zaloguj się
  • avatar
    Coś mi tu śmierdzi! Miało być 2gb gddr5 a tu do 6gb? WTF? A co do bitów to miało być 512bit ale z 2gb to niepotrzeba takie magistrali. 3miliardy tranzystorów? łohoho miało być 2,5, no no jeszcze musimy poznać mhz jak będzie 700mhz na rdzeniu to mamy potwora!
  • avatar
    ogolnie jak zobaczylem nazwe tematu "o podali specyfikacje!"
    a to tylko "na zebranych do tad informacjach" hmm no ale niezle niezle, bedzie sie dzialo ;P
  • avatar
    Jeden serwis palnął głupotę, a reszta bezmyślnie to powtarza. Żaden procesor nie może obsługiwać C++ natywnie, bo od tego jest kompilator. Może gdy do GPU podam plik tekstowy z funkcją prinf("Hello word"); to GPU mi to wyświetli na ekranie ? Puknijcie się w główkę.
    Zaloguj się
  • avatar
    Nvidia naprawdę się stara :) Kolejny potwór lepszy od ati :P
  • avatar
    Poprawcie towarzyszu te "3 biliony" na 3 miliardy. W angielskim bilion=miliard.
  • avatar
    pierwszy raz słyszę o pamięci podręcznej GPU ;) niedługo to powstaną dwurdzeniowe GPU xD
    Zaloguj się
  • avatar
    "liczba tranzystorów powyżej 3 bilionów"

    Chyba ktoś tu się za bardzo zagalopował. Raczej powyżej 3 milionów. Radzę podszkolić się z języka angielskiego.
    Zaloguj się
  • avatar
    z tym cpp to ladnie zescie przyszaleli xD kazdy bezmyslnie kopiuje i wkleja glupoty
  • avatar
    Robi to wrażenie, zwłaszcza 512 procesorów strumieniowych, 3mld tranzystorów.
    Przepustowość będzie bardzo duża.
    W połączeniu z 40nm będzie to mocna karta.
    Ale patrząc na znikomy przyrost fps jaki był w Crysis w kartach
    Radeon pomiędzy 4870 a 5870 w najsłabszych ustawieniach w benchmark- tylko 8-10fps - nie mówiąc o różnicy z 4890 który jest identycznie taktowany w gpu jak 5870 (5 fps) to należy się zastanowić jak niewiele
    większą płynność daje karta dwa razy bardziej rozbudowana- czy to nie dziwne?
    Dziwniejsze jest to że identyczną, albo bardzo podobną płynność uzyskujemy w 4890 toxic- jak w 5870 w Crysis
    Samą rozbudową gpu nie zwiększymy mocno fps, do tego trzeba większej częstotliwości - zwłaszcza gdy się przekroczy pewną granice w ilości SP, potok, tekstur bo gra już tego nie wykorzystuje- do obliczeń wystarczy mniej .
    Dlatego rewelacji nie ma się co spodziewać,- potrzebne są taktowania
    na poziomie przynajmniej 1000-1200mhz
    Zaloguj się
  • avatar
    Ciekawe jak się będzie nagrzewać ;) Ja mam na Radeonie 4770 HIS jakieś 36*C ;) chyba żadna karta nVidii tego nie przebije w spoczynku ;)
  • avatar
    Jakie doswiadczenie w projektowaniu prockow x86 posieda nVidia?
  • avatar
    nie zebym mial coś do ciebie firespace ale ostatnio twje newsy schodzą z poziomu. Masz ich dużo ale większość to marketingowy belkot lub jakieś ploty... Ciekawe czy tylko ja tak mysle..

    Pozdr
  • avatar
    Powoli dochodzę do wniosku, że cały ten gt300 to będzie przełomowa klapa na poziomie geforca 5xxx. Może i będzie szybki ale z taką skomplikowaną budową to % działających chipów będzie niewielki i w rezultacie tego jego produkcja będzie bardzo nieopłacalna.

    ATI poszła najprostszą linią oporu, wzięli to co mieli, pomnożyli x2 poprawili to i tamto i mają gotowy produkt z którego wszyscy są zadowoleni. NV popdadła w jakaś gigantomanie, chcą stworzyć karte obliczeniową do wszystkiego a nie kartę graficzną i to może im sie bardzo nieprzyjemnie odbić.

    O ile dobrze pamiętam w czasach radka 8500 i gf3 , matrox prehelia miał być taką inowacją, miał być w pełni programowalną kartą, coś na styl współczesnych shaderów. I co i klapa, przegrała konkurencję z brutalną siłą MHz i ilością potoków przetwarzania któe zaprezentowały przyszłe karty NV i ATI ;)
    Zaloguj się
  • avatar
    Krytykowali Ati, a teraz sami wchodzą w DirectX 11...

    A sądząc po kontrolerze pamięci (384) to zapowiada się prawdziwy następca G80;-)
  • avatar
    Nie chcę się wymądrzać, ale 3 BILIONY to chyba mała przesada...
    Do autorów, proponuję zweryfikować tego niusa
  • avatar
    Oj czekam, czekam :D Pieniądze już płoną w biurku ;D
    Zaloguj się
  • avatar
    Jak zwykle wróżenie z fusów.

    Nie ma co się napalać, bo co niektórzy mogą się rozczarować, albo szczęśliwie zaskoczyć - Wszystko będzie jasne jak nVidia oficjalnie zaprezentuję specyfikację. Mało tego: specyfikacja to jedno, a testy dopiero zweryfikują na co stać nowy układ. Do tego momentu nie zostaje nam nic więcej jak cierpliwie czekać.
  • avatar
    Widzę, że naszego "specjalistę" od newsów o GT300 ponownie poniosła wyobraźnia;)
    3 biliony tranzystowów, ta:D, a w najbliższą kumulację w totka wygrają wszyscy, którzy w niego zagrają;)
    Niektórym lamerom, powinni zabronic pisać news'y, bo nie wiadomo czy się śmiac, czy płakać. Przy pisaniu news'ów trzeba także myśleć, a nie bezmyślnie przepisywać, jakoś konkurencja wykazała posiadanie zdrowego rozsądku i nie umieśliła wyssanej z palca liczby 3 bilionów. Moze autor newsa jest zapalonym graczem w dużego lotka i pisząc newsa pomylił się z suma kumulacji w totka, jaka mu się poprzedniej nocy przyśniła:D

    1. http://www.in4.pl/komentarze_NVIDIA_Fermi_-_już_oficjalnie_o_architekturze_nowego_GPU,19475.htm

    2.http://nvision.pl/news-ext-14784.html

    P.s.
    Teraz już wiem, dlaczego nadal czytam posty niektórych userów benchmarka:D Potrafią one nieźle poprawić humor, zwłaszcza przy dzisiejszej pogodzie;)
    Zaloguj się
  • avatar
    Z tego co tutaj przeczytalem,zauwazylem ze nie kazdy wie ze
    bilion w US/UK to miliard u nas.
    wiec jesli napisal 3 biliony tranzystorow.... to chodzilo oczywiscie o 3 milaiardy.
    Wiec w czym problem, ktos tylko nie przetlumaczyl dokladnie tekstu. :)
  • avatar
    W takim razie, ktoś nie wie w jakim kraju mieszkamy. Usprawiedliwianie na siłe czyjegoś bezmyślnego przepisywania, nie wymaga chyba większego komentowania(jakoś inni potrafili czyt. konkurencja).
  • avatar
    Połowa postów o 3 bilionach ;) A swoją drogą autor mógłby to wreszcie poprawić...
  • avatar
    News nic nie wnosi, ale z niektórych komentarzy można się sporo dowiedzieć.

    BTW, boje się ze przecieki o gt 300 są kontrolowane i maja służyć podgrzaniu atmosfery przed premierą, a prawdziwa specyfikacja będzie się znacznie różnić od tych "newsowych rewelacji".

    Tak czy inaczej nVidia potrzebuje nowej technologi, którą da się rozwijać i sprzedawać przez kilka najbliższych lat, bo gt 200 wydaje się być już maksymalnie wyeksploatowanym i niereformowalnym.

    Osobiste, chociaż mam straszna chrapkę na HD5870(!), to wstrzymuje się na razie z kupnem nowej karty do czasu premiery gt 300. Jeżeli okaże się ze ta gt 300 będzie 2 razy wydajniejsze niż HD5870, przy cenie nieprzekraczającej dwukrotnosci ceny Radeona to wezmę nowego GeForce'a pod uwagę. pozdro
  • avatar
    Oj, sądzę, że będzie powtórka z GF8xxx i R3xxx ;)
    nVidia specjalnie, zwlekała, żeby dać się nacieszyć i nachwalić, czego to nie dokonali, panom z AMD. A teraz pokazała co potrafi.
    Niestety jak to bywa, karty AMD, tyćkę gorsze, ale i tańsze od "Zielonej Siły"...
  • avatar
    No to mozemy sie spodziewać niezłego kombajna xD
  • avatar
    A po co autor ma poprawiać te biliony? Przecież on nawet tych komentarzy nie czyta - liczy się tylko zysk (czytaj: pozycja w rankingu osób piszących newsy).
  • avatar
    Ludziska no... Nie BILIONÓW, a MILIARDÓW! Bilion z angielskiego, to po polsku miliard - oni mają nieco inną nomenklaturę.
  • avatar
    widze ze nie tylko ja to zauwazylem - ostatnio mnowstwo roznych plotek na temat nowego gt 300, jest dla mnie prawie jasne ze macza w tym palce dywizja marketingowa nvidii, rzucac byle co, byle ktos cos gadal i byle zagluszyc sukces konkurencji w postaci 5870. jak widac po niektorych postach dosc skutecznie to robia
  • avatar
    w końcu wsparcie dla DX11
  • avatar
    A tu takie cudeńko znalazłem.

    Jak wiele można zrobić, aby przyćmić ważne wydarzenie u konkurencji? Cóż, jeżeli chodzi o niedawną premierę kart graficznych ATI Radeon HD 5800 i NVIDIĘ, to można zrobić konferencję, zaprezentować własną, nową generację procesorów grafiki i... pokazać atrapę.Serwisy Singapore HardwareZone i PCPop jednocześnie zwróciły uwagę na kilka elementów zaprezentowanej przez szefa NVIDII karty graficznej oznaczonej jako "Tesla", które pozwalają postawić taki wniosek.

    Jeżeli dokładnie przyjrzymy się, zwłaszcza rewersowi karty, to znajdziemy tam dziwne cechy. Po pierwsze karta wydaje się nienaturalnie kończyć - jej wewnętrzny kraniec jest wyraźnie odcięty, na co wskazuje na przykład pozostawienie tylko dwóch złączy dla gniazda dodatkowego zasilania.

    Dodatko, jeżeli spojrzymy na gniazdo 6-pinowe (u góry), to widać wyraźnie, że na rewersie karty nie ma śladów po jego przylutowaniu (ani zaczepieniu) do płytki PCB. Podobnie jest z 8-pinowym gniazdem z boku. Wygląda na jedynie przyklejony, bo do płytki jego złącza przylutowane nie są.

    W płytce wykonano też otwory wentylacyjne, ale jeśli się dobrze przyjrzeć to można zauważyć, że są zakryte.

    Wygląda więc na to, że Jen-Hsun Huang podczas prezentacji trzymał "zabawkę", w dodatku nienajlepiej opracowaną, tylko na potrzeby pochwalenia się niby kartą graficzną, która działa.

    Wszystko to może oznaczać, że NVIDIA wciąż nie ma działającego prototypu kart graficznych nowej generacji.

    Teraz już wi
  • avatar
    "liczba tranzystorów powyżej 3 bilionów" chyba obudzilem sie w odleglej przyszlosci :)
    wracajac do tematu jezeli nvidia zrobi karte ktora na jednym rdzeniu bedzie na rowni z obecnymi 2 rdzeniowymi kartami lub 2 w sli z highend to bedzie bardzo dobrze.
    amd takie cos sie udalo (5870 ma podobna wydajnosc jak 4870 x2), teraz trzeba poczekac na odpowiedz nvidii.