Karty graficzne

GeForce GTX 460 - powrót do przeszłości

z dnia
Paweł Maziarz | Redaktor serwisu benchmark.pl
84 komentarze Dyskutuj z nami

Wyobraźcie sobie, że jakimś cudem karta GeForce GTX 460 trafiła do końca lat 90 ubiegłego wieku. Jak zadziałałby komputer wykorzystujący tę kartę i ówczesne procesory AMD oraz Intel? Oto mamy odpowiedź na to pytanie.

Czy zastanawialiście się kiedyś co by się stało gdyby połączyć GTXa 460 ze starym procesorem o mocy obliczeniowej sporo niższej od układów znajdujących się wewnątrz dzisiejszych komórek? Choć zagadnienie wydaje się czysto akademickie, to czemu nie sprawdzić takiej konfiguracji?

  Warto przeczytać:
 

Na pomysł wykonania takiego doświadczenia wpadł jeden z użytkowników rosyjskiego portalu overclockers.ru, znany pod nickiem MAX1024. Miało ono na celu odpowiedzenie na pytanie - czy da się zamontować GeForce GTX 460 na płycie głównej z 1998 roku oraz czy dałoby się na takiej konfiguracji pograć w Crysisa. Zbudował on platformę testową składającą się z:
 

  • procesora Intel Pentium MMX (300 MHz) lub AMD K6-2+ (300 MHz)
  • karty graficznej EVGA GeForce 460GTX 1 GB
  • płyty głównej ASUS P5A  obsługującej procesory pod Socket 7 (chipset Ali Aladdin V)
  • dwóch 256 MB kości SDRAM o taktowaniu 133 MHz
  • dysku twardego Seagate Barracuda IV 40 GB
  • zasilacza FSP ATX-450 o mocy 450W

 
Zastosowano sterowniki do karty graficznej NVIDIA ForceWare 260.63 Beta.
 


Oczywiście na wykorzystanej płycie głównej nie znajdziemy portu PCI-Express, a jedynie AGP, PCI oraz ISA. Dlatego też autor testu zdecydował się zastosować adapter z magistrali PCI do PCI Express wykorzystujący mostek PLX PEX 8112. Dodatkowy problem polegał na tym, że zazwyczaj tego typu mostki są zgodne z nowszymi wersjami portów PCI, które dostarczają napięcia o wartości 3,3 V, a starsza ich wersja zastosowana na testowej płycie głównej dostarcza 5 V. Jednak autor testu poradził sobie i z tym problemem – niestety, nie opisując rozwiązania. 

Do przeprowadzenia testów wydajności tak przygotowanej platformy posłużyły popularne 3DMarki – w wersji 2001 SE oraz 2003. Niestety, uruchomienie systemu Windows 7 na procesorze Intela okazało się niewykonalne, podczas gdy na AMD K6-2+ pracującym z taktowaniem 600 MHz udało się tego dokonać. Być może spowodowane to było niedostatkiem instrukcji w produkcie Intela lub po prostu „kaprysem” systemu Microsoftu.
 


Na pierwszy „ogień” poszedł 3DMark 2001 SE, w którym uzyskano 908 punktów. Dla porównania dzisiejsze platformy testowe uzyskują wyniki powyżej 40 000 punktów. Co prawda wymagało to ustawienia na sztywno częstotliwości w trybie 2D. Standardowo, ze względu na małe obciążenie układu graficznego, sterownik zmieniał tryb pracy na 2D – w tym trybie uzyskano 707 punktów.
 


Następnie autor wykonał test w 3DMark 2003, gdzie uzyskał 754 punkty (w trybie 2D 557 punktów). Jest to około 70-krotnie mniej niż liczba punktów jaką uzyskuje się na dzisiejszych komputerach (około 53 500 punktów).

Powyższe wyniki dotyczą niestety jedynie procesora AMD. Aby umożliwić "pojedynek" z Intelem powtórzono testy, tym razem w systemie Windows XP. W tym przypadku procesor AMD został przetestowany z referencyjnym taktowaniem 300 MHz.
 

 
W 3DMark 2001 SE produkt AMD uzyskał 729 punktów, a więc 25 procent mniej niż przy zwiększonym taktowaniu procesora. Dla porównania platforma z procesorem Intel uzyskała 1206 punktów, a więc o 65 procent więcej niż w przypadku AMD.
 


Procesor AMD w 3DMark 2003 na standardowym taktowaniu uzyskał 574 punkty. Jest to wynik o 31procent niższy niż przy dwukrotnym podkręceniu procesora. Dla porównania procesor Intela otrzymał notę 1258 punktów, a więc ponad dwa razy lepszą.

Autor testu próbował także wykonać testy w takich grach jak Crysis, Dirt2, Stalker Zew Prypeci oraz benchmarku Heaven Benchmark, ale niestety kończyły się one komunikatem o braku wspierania wymaganych instrukcji przez procesor lub po prostu nieoczekiwanym zamknięciem aplikacji.

Niezależnie od wyników, miło wspomnieć czasy, gdy procesory AMD i Intel potrafiły się dogadać z tą samą płytą główną.
 

Źródło: overclockers.ru
 

Polecamy artykuły:    
PlayStation Move - poznaj magiczną różdżkę Sony
Test 16 coolerów - który schłodzi najlepiej?
Premiera: więcej rdzeni i megaherców od AMD

Komentarze

84
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Wreszcie doczekałem się rzetelnych ,wiarygodnych i przejrzystych testów , które wnoszą bardzo wiele i dają pogląd na moc obliczeniową naszych platform. :)
  • avatar
    Zestaw i karta, ładna parka
    pasują do siebie...
  • avatar
    Test zaskoczył mnie, Intel chyba zawsze był górą hehe. Tylko W czasach Pentium IV stracił. Dobry test, pokazał czym są puste MHz w AMD.
    -1
  • avatar
    Dodam jeszcze że chętnie zobaczył bym test na 486 DX4
  • avatar
    Niestety brak dlatego tak wypisuję jedno pod drugim.Wiem że brak instrukcji MMX (i nie tylko)nie pozwoli na takie testy ale...,fajnie by było .Tekst zawiera nutkę ironii oczywiście , na PCLAB-ie ze 30 minusików bym wyłapał bo to przecież gtx 460 , ironizowanie z takiej karciochy grozi śmiercią :)
  • avatar
    EDYTUJ BRAK EDYTUJ :(
  • avatar
    No fakt za czasów p4 to pentium miał puste mhz i był tym gorszym procesorem, a athlony były dużo lepsze i miały małe zegary ehh... czemu nie ma tak teraz.
  • avatar
    Czyli teoria o ograniczaniu karty przez proc jest prawdziwa co prawda,komp wykorzysta dodatkową moc z karty ale pracować ona będzie tylko w max 5% możliwości
  • avatar
    Koniec lat 90 i 512MB RAM w kompie to miał tylko chyba Bill. Chociaż nie, jemu przecież wystarczy 256kB...
  • avatar
    Do uruchomienia Crysisa wystarczy MMX i SSE1, czyli chyba juz pierwsze Durony to mialy ;)
  • avatar
    czysta glupota - tak w skrocie mozna powiedziec.

    przeciez to bylo do przewidzenia juz na samym poczatku.

    i jeszcze na dodatek to zlacze pci - tu max jaki mozna dac to gf4mx, lepszej nie ma sensu bo ogranieczniem jest przepustowosc tego zlacza
  • avatar
    'Tak to jest, jak karta ogranicza procka' :P

    W tekście jest błąd:
    "Co prawda wymagało to ustawienia na sztywno częstotliwości w trybie 2D. Standardowo, ze względu na małe obciążenie układu graficznego, sterownik zmieniał tryb pracy na 2D – w tym trybie uzyskano 707 punktów."
    Rozumiem, że miało być 'na sztywno częstotliwości w trybie 3D', wtedy to ma sens.
  • avatar
    Bardziej by się to chyba na news nadawało niż na m-r. :)
  • avatar
    Ciekawe ile czasu włączał się ostatni program z tych wszystkich na zdjęciach, sądzę że w czasie tego testu autor zdążył zamówić pizze :)
  • avatar
    Prawdziwy pokaz rewolucji techniki na przełomie lat.
  • avatar
    Hardkorowy test : )
  • avatar
    post miesiąca :)
  • avatar
    Z tego co pamiętam z tamtego okresu to chyba Intel był faworyzowany w tych markach stąd pewnie taki wynik.
  • avatar
    przecież, tu najbardziej wydajność ogranicza przepustowość magistrali. Nie dość, że PCI, to jeszcze przez mostek.
  • avatar
    Najlepszy news od pół roku albo i więcej. Brawo dla autora!
  • avatar
    Po pierwsze to pierwsze słyszę o procesorze Pentium MMX o taktowaniu 300 MHz. Sam miałem model 200 MHz, potem był 233 i to był najmocniejszy desktopowy procesor z tej serii. Potem już tylko PII, inny socket, itp. No chyba że to jakaś kręcona wersja mobilna czy inny mutant.

    Po drugie coś nędzne te wyniki, mam wrażenie. Przez jakiś czas miałem AMD K6-2 350@400 MHz + 128MB + GeForce2 GTS SDR i wyniki z 3DMark 2001 wyglądają strasznie słabo.
  • avatar
    No na PCI to żadna współczesna karta nie poszaleje.
    Co do starej wojny AMD K6/K6-2/K6III kontra Pentium/Pentium MMX to była znana prawda, że AMD-ki miały gorsze FPU, a lepsze ALU. Pentium II/Pentium III pogłębiły tą dysproporcję rozszerzając ją na ALU.

    Dopiero "K7" pozwoliło wrócić do walki AMD
  • avatar
    Fakt, były czasy kiedy kupowało się płytę, a potem można się było zastanowić jaki procek tam włożyć - teraz trzeba się zastanowić czy procesor z najnowszej linii Intela, będzie pracował na płycie ze generacją wcześniejszą - i najczęściej skończy się to zakupem nowej płyty.
  • avatar
    "Autor testu próbował także wykonać testy w takich grach jak Crysis, Dirt2, Stalker Zew Prypeci oraz benchmarku Heaven Benchmark"
  • avatar
    test nic nie daje to było oczywiste
    ktos powinien wykonac mniej więcej taki test
    na platformie z 2004 roku (bo wtedy weszło PCI-Express)
    jakiś 2 GHz Pentium 4 i jego odpowiednik Athlon XP 2GHz i na takim zestawie sprawdzić wydajność (szyna by nie ograniczała)
    dla porównanie to samo na karcie z tamtego okresu np GeForce 6800

    do tego test w drugą stronę na karcie Geforce 6800 i GTX 460 dzisiejsze 4 rdzeniowe procesory 3GHz i byśmy mieli pełen obraz tego jak wpływa szybki proc i wolna karta oraz odwrotnie
    oczywiście testy w małej 800x600 (kiedyś w takiej się grało) i dużej (1600x1050) rozdzielczości bez upiększaczy typu AA i AF
    kilka gier do tego np po 5 gier z 2004 i 5 gier z 2010

    To dopiero byłby test - czy redakcja benchmark.pl się o to pokusi?
    Już znam odpowiedź: bla bla z przyczyn bla bla niestety nie!

    Pozatym nie wiem co panuje za mania na ciągłe zmiany grafy ja mam 8600GT i gram we wszystko np Starcraft 2 na HIGH, Gothic 3 na HIGH, League of Legends itd.
    Po co mi zmieniać grafe jak we wszystko przy odpowiednich detalach i rozdzielczości sobie pogram
  • avatar
    Jak widać na powyższym obrazku można nową kartę wpiąć w stare serce. Efekty praktyczne są niewiele warte, ale to pokazuje że to co było w latach 90tych ubiegłego wieku, jest tylko kontynuowane i ewoluuje. Nie ma natomiast mowy o żadnej rewolucji technologicznej. Jest tylko ciągłe przyspieszanie starej platformy.
    Może to jest ślepa uliczka?
    Innym, choć mniej odległym, przykładem na ewolucję było fabryczne zagranie Asrocka, który zbudował płytę główną na NForce 3-250 ze złączem AGP dla podstawki AM2+. Tym samym dał możliwość uruchomienia Phenoma II na chipsecie z poprzedniej epoki i powody do zadumy nad ideą postępu dla recenzentów.
    Pokazuje ten przykład jak mało od strony technicznej zmieniają się kolejne generacje produktów. Dodaje się troszkę Mhz, zmniejsza proces produkcji by zaoszczędzić parę centów, dodaje nową nazwę z nową cyferką, robi akcję reklamową i fanboye łykają jak świeże bułeczki.
    Z drugiej strony trzeba jasno sobie powiedzieć, że obecne Mhz są nikomu niepotrzebne a ich wykorzystanie wynika tylko i wyłącznie z niedouczenia programistów i ich lekceważenia zagadnień optymalizacji i upraszczania kodu. Po co się w końcu wysilać z optymalizacją, skoro w każdym komputerze są minimum 2 jajka po minimum 2Ghz i sobie z każdym kodem poradzą.... A potem mamy do czynienia z sytuacją, gdzie nawet Core i7 muli się w systemie z niedopracowanymi Flashami i innymi barachłami.
  • avatar
    teraz to sie liczy liczba rdzeni a nie mhz
  • avatar
    Troche temu widzialem ATOMA(1 rdzen chyba, plyta micro atx?) + 480 - normalnie kosmos :D
    ale kilka K w 3d vantage bylo :D
    pamietam jak gralem na x2 4200+ w gre intela (inteligentne technologie czy cos takiego) to flashanka ostro dawala po dupie procowi non stop ~90% zuzycia.
  • avatar
    Ciekawe jakby działał ten GTX na prockach taktowanych w okolicach 1-1,5ghz... A autor tego pomysłu powinien trafić do Brainiaca:) Test przywodzi podobne odczucia...
  • avatar
    Miałem K6-2... to był najgorszy procesor, na jaki trafiłem. Była wtedy na rynku pewna walnięta seria, na której nie dało się pracować... niestety na takiego procka trafiłem

    Od razu przesiadłem się na stojącego "Balerona", któy wszedł do obudowy, dopiero jak ją trochę spiłowałem - ten model był tak wkłądany na płytę, jak ram i trochę wystawał :)))
  • avatar
    Nie będę pisał czy lepsze amd czy też intel,ale mam tu coś związanego stricto z tematyką artykułu.
    Ciekawostką (myslę) jest wynik testu 3dmark2003 jaki przeprowadziłem na maszynie z 99r: Compaq sp750 z 2x PentiumIII Xeon 900MHz/100 (2MB L2),1GB rimm 800, agp x4 oraz karcie Radeon HD2600 Pro AGP. Zrobiło to ok. 7400pkt, a ta sama karta na "dzisiejszym" Athlon64 X2 5600+ wykręciła 8000pkt. A te procesory różni wiek jakiś 8lat ;-)
    Luknijcie sami:

    http://img594.imageshack.us/img594/1930/3dmark03a.jpg
  • avatar
    Do autora: W teście uzyto procesorów K6-2+ , były to wersje mobilne.
  • avatar
    Po cichu liczyłem na to, że komputer dostanie nóg i wyjdzie, lub coś bardziej spektakularnego się stanie... Trochę się zawiodłem.
  • avatar
    Ciekawy test :)
  • avatar
    :D:D:D EPIC FAIL :D:D:D
    Gdyby to był 1 kwietnia to dałbym się nabrać.

    To nie jest adapter PCIex16 do PCI !!!
    To jest adapter PCIex16 do PCIex8 !!! można taką dostać za 42 dolary. Poszukajcie czegoś takiego na googlu: PEXP16-SX-16/8

    Jakim cudem chipset Ali Aladdin 5 (skądinąd bardzo udany i wydajny)
    miałby posiadać GRAPHIC INTERFACE : PCI-EXPRESS ??

    Oznaczało by to że cała technologia PCIexpress to bajka i za pomocą zwykłej przejściówki można podłączyć nowoczesną kartę graficzną ze sprzętem sprzed 13 lat?

    Zrzuty ekranu to pic na wodę i są sfotoszopowane i tyle. Pozatym GTX460 krzywo siedzi w tym slocie.

    BTW. Miałem tę płytę główną P5A - wg. mnie kultowa płyta główna na równi z Asusem P2B i P3B na chipsecie BX.
  • avatar
    Taki FAIL do newslettera :) brawo redakcja :D:D
  • avatar
    Miałem dokładnie tą płytę główną, była kiepska w wydajności, epox na mvp3 z 1MB cache brał ją bez problemu, poza tym problemy ze sterownikami, stabilnością... Ali to nie był udany chipset.