Komentarze

  • Premiera AMD Kaveri - najmocniejszy model w akcji

    Ocena komentarza: 0
    Najwieksza wina tego ze sa niewielkie roznice pomiedzy starszymi zintegrowanymi grafikami z 384 shaderami a R7 z 512 shaderami to przepustowosc pamieci ktora ma 64 bit ddr3.
    Mogliby dodac wieksza szyne pamieci dedykowana dla grafiki zostawiajac dalej wspoldzielenie pamieci z CPU i GPU dla obliczen apu, czyli dodac co najmniej dodatkowe 64 bit. Mimo to ze szyna pamieci jest niewielka przy wiekszych rozdzielczosciach albo ustawieniach grafiki nadal bedzie miec wydajnosc wieksza o ok10kl/s mimo ze beda to wysokie ustawienia co moze byc wynikiem niewiele gorszym od tanich przyzwoitych zewnetrznych grafik.
    Dobrym pomyslem jest podkrecenie fabrycznych pamieci ram 2400 mhz, testy pokazuja ze czestotliwosci ramu decyduja o sporo wiekszej wydajnosci.

    164

  • Barack Obama nie może korzystać z iPhone'a

    Ocena komentarza: 0
    Dziwne ze dopiero po ok. 10 latach od wprowadzenia zaawansowanych urzadzen powiedzieli teraz ze android to android i smartfon to smartfon, moze zapomnieli?

    16

  • Znany producent telewizorów przesyła dane bez naszej zgody: czy jest o co kruszyć kopie? [AKT]

    Ocena komentarza: 0
    Nawet nad telewizorem trzeba sie zastanawiac, szkoda slow

    20

  • Radeony HD 6900 - nowa seria, lepsza wydajność

    Ocena komentarza: 0
    Na http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/27.html
    są takie same: 8.79.6.2 RC2, ale pobór prądu mniejszy od gtx570.Na 10.12 RC2 karta mniej pobiera od GTX470, dlatego na najnowszych oficjalnych sterownikach pobór może się zmienić.

    490

  • Radeony HD 6900 - nowa seria, lepsza wydajność

    Ocena komentarza: 0
    Według specyfikacji hd6950 ma pobierać 150W w grach, a hd6970 190W, więc na tych testach powinien być pobór prądu hd6970 w grach: 393W- jak hd5870

    490

  • Radeony HD 6900 - nowa seria, lepsza wydajność

    Ocena komentarza: 0
    do 6950/gtx570. Wydajność jest na tych sterownikach chyba podobna

    490

  • Radeony HD 6900 - nowa seria, lepsza wydajność

    Ocena komentarza: 0
    Na sterownikach Catalyst 10.12 RC2 hd6970 pobiera w grach o wiele mniej prądu, nawet mniej niż gtx470, a już na pewno gtx 570:
    http://www.in4.pl/recenzje.htm?rec_id=676&rectr_str_numer=20
    Na wielu innych testach były używane sterowniki chyba 10.11,tak jak na benchmark, a tam głównie był większy pobór.
    Chyba jest to wina sterowników, a do testów powinny być używane Catalyst 10.12 RC2- trzeba zrobić aktualizacje poboru prądu. Nawet temperatury pod obciążeniem z 10.12 RC2 były zbliżone

    490

  • Radeony HD 6900 - nowa seria, lepsza wydajność

    Ocena komentarza: 0
    Na sterownikach Catalyst 10.12 RC2 hd6970 pobiera w grach o wiele mniej prądu, nawet mniej niż gtx470, a już na pewno gtx 570:
    http://www.in4.pl/recenzje.htm?rec_id=676&rectr_str_numer=20
    Na wielu innych testach były używane sterowniki chyba 10.11,tak jak na benchmark, a tam głównie był większy pobór.
    Chyba jest to wina sterowników, a do testów powinny być używane Catalyst 10.12 RC2- trzeba zrobić aktualizacje poboru prądu. Nawet temperatury pod obciążeniem z 10.12 RC2 były zbliżone

    490

  • Premiera GeForce Fermi - test GTX 470 vs HD 5800

    Ocena komentarza: 0
    gtx480 w tej chwili pozwala na wyższą rozdzielczość w Metro 2033 niż hd5870, ale...to jest sponsoring gry..., a nawet przy tym różnice są za małe od tego co było oczekiwane.
    HD5970 pewnie będzie bezkonkurencyjny za niewiele więcej i z mniejszym TDP,
    nawet różnice jakie są zostaną zmniejszone wraz z 5890(albo podkręceniem 5870) i zmianą sterowników. Karta nieopłacalna...
    Opłaca się kupić dopiero w 28nm- pod warunkiem widocznej różnicy w wydajności, a najlepiej gtx580/590,6870

    314

  • Premiera GeForce Fermi - test GTX 470 vs HD 5800

    Ocena komentarza: 0
    Co do gtx480 vs 5870 w Metro 2033 różnica to 5-10 klatek, - które dają wyższe ustawienia.

    314

  • Premiera GeForce Fermi - test GTX 470 vs HD 5800

    Ocena komentarza: 0
    Patrząc na Metro 2033 - czyli gre pod nvidie
    - ma się wrażenie że ta cała moc tessalatorów jest praktycznie zbędna-
    przynajmniej na tego typu gry. Ale to nie jest byle jaka gra, a napisana pod Fermi(czyli w 100% wykorzystana w to karta!), tym bardziej dziwi że poza msaa x 4- wyniki są praktycznie identyczne jak w hd5870, nawet z gtx480!, a to przecież pełny Directx 11.
    Coś tu nie gra.
    Moc jaka drzemie widać DOPIERO NA MSAA X4- ale co z tego skoro wąskim gardłem są potoki, tmu i częstotliwość =jest mało FPS!!!!! Mało tego ten tryb jest prawie w ogóle niegrywalny dla gtx470/480!!!
    Wątpie w to aby aż takiego wygładzania/tesselacji potrzebowały gry, a jeśli nawet to jest to tylko ciekawostka bo ta karta ma na to zbyt wąskie gardło!!!
    Karta nie wykorzysta swojego potencjału tessalatorów w grach, całe te testy unigine i tesselacji to właściwie marketing.
    Te rzeczy przydadzą sie ale dopiero wtedy gdy będzie się liczyła duża prędkość MHZ całego gpu + potoki i tmu. Czyli może w hd6870, albo gtx580.
    Po Metro 2033 widać że karta nie pozwoli na wyższe ustawienia niż hd 5870- i tak pewnie będzie w większości gier.
    Nie warto w ogóle przepłacać tylko kupić gt260/gt275/gt285/hd5850/hd5870, albo czekać na hd6870/ gtx580.

    314

  • GeForce GTX 480 i 470 pozują do zdjęć

    Ocena komentarza: 0
    GTX480 nie da się podkręcić przez duży pobór prądu i wydzielanie ciepła, hd5870 można pewnie do 900-1000mhz= ta sama wydajność

    69

  • GeForce GTX 480 i 470 pozują do zdjęć

    Ocena komentarza: 0
    OFICJALNE TESTY GEFORCE GTX480 NA STRONIE:

    http://nvision.pl/Oto-oficjalne-wyniki-GeForce-GTX-480--News-16380-ndetails.html

    5870 praktycznie tak samo wydajny,

    69

  • Radeon 5670 walczy o pozycje wśród tanich kart graficznych

    Ocena komentarza: 0
    Na www.skapiec.pl można dostać tą kartę za 307zł- w tej samej cenie co 9800gt.Za jakiś czas powinna kosztować 260zł, jak 9600gt, albo mniej.

    58

  • Nowe procesory Intel Core i3 i Core i5 ze zintegrowaną grafiką!

    Ocena komentarza: 0
    Ceny płyt głównych do Corei3/i5/i7, a ceny do Core 2 Duo- jak i samych procesorów.
    Grafika w tych procesorach starsza, nowsza czy przyszła
    będzie służyć tylko do 2D czy prostych starych gier 3D, wyglądu Windows Visty/7, oraz nowszych technologii oglądania filmów(niewiele zmieni).
    Zaleta GPU z CPU Corei3/ Corei5 tylko w notebookach.
    Mniejsze awarie i łatwość naprawy.

    460

  • Nowe procesory Intel Core i3 i Core i5 ze zintegrowaną grafiką!

    Ocena komentarza: 0
    Nie jest to wadą, ani też zaletą- ten sam układ znajdujemy w płytach głównych do core duo- dlatego też jest to zwykła zmiana miejsc.
    Tutaj liczy się wyłącznie wydajność nowych procesorów w CPU -
    w sumie jest bardzo dobra, ale cena też ma ogromne znaczenie.

    460

  • Nowe procesory Intel Core i3 i Core i5 ze zintegrowaną grafiką!

    Ocena komentarza: 0
    Trudno się nabrać...
    Jeśli ktoś tu korzysta to tylko ci co kupią normalne procesory
    4 rdzeniowe, szybsze albo po prostu tańsze.Można też poczekać na nieunikniony spadek cen starszych procesorów Intel, albo zainteresować się coś z procesorów AMD które są sporo tańsze.
    W marketingu(zwłaszcza redakcyjnym) zalety produktu szuka się tylko tam gdzie one występują. Oprócz grafiki procesor jest bardzo dobry- ale są też inne ciekawe procesory -droższe i tańsze bez zbędnych gratisów.

    460

  • Nowe procesory Intel Core i3 i Core i5 ze zintegrowaną grafiką!

    Ocena komentarza: 0
    GPU w tym procesorze TO TYLKO CHWYT MARKETINGOWY
    żywcem wyjęty z płyty głównej do procesora(zwykłe przełożenie z punktu A do punktu B bez znaczącego wzrostu wydajności)- co ciekawe i tak płyta główna będzie swoje kosztować jak wcześniej -więc na to samo wyjdzie.
    To tylko czysty marketing- to ciężko nazwać nawet ewolucją bo do tych płyt głównych nie będzie można dostać procesora o wydajności graficznej przynajmniej gf8600gts- a to minimum do podstawowych gier - czyli ta technologia będzie przydatna jak na razie tylko w marketingu...
    Jeśli mówić coś tu o ewolucji to było to Larrabee, które nie wyszło- z powodu pewnie kosztów, a szkoda bo każdy wolałby taki procesor na przyzwoitym poziomie do gier i obliczeń- całkowicie by wystarczało do gier. To doprowadziłoby do rewolucji - na którą musimy poczekać następne lata.
    Warto kupić tańsze procesory o tej samej wydajności CPU, albo 4 rdzeniowe.

    460

  • Osiągi GeForce GTX 360 i 380 to oszustwo?

    Ocena komentarza: 0
    Gdyby ta karta była naprawdę taka dobra to:
    już dawno by ją wprowadzili do sprzedaży na gry
    dlaczego?
    bo ta karta już dawno jest reklamowana w klastrach do superkomputerów.

    Więc albo ma identyczną/zbliżoną wydajność do Radeona 5970
    i jej koszt jest sporo większy.
    Albo jest gorsza od 5970 i nieopłacalna- za droga.


    72

  • 48-rdzeniowy procesor - Intel przedstawił prototyp

    Ocena komentarza: 0
    Rzeczywiście - nie jest to nadzwyczajna wydajność, ale na pewno wystarczy do najnowszych gier.
    Problemem może być cena takiego układu...
    jeśli będzie duża to układ zyska popularność chyba tylko w zastosowaniach profesjonalnych, albo do superkomputerów- i to tylko dzięki instrukcji x86 - jako normalny procesor, bo są sporo wydajniejsze układy Nvidia Fermi- tyle że bez x86- bazują na innych programach.Ale to znaczenie zanika.
    Larrabee opiera się na wielu uproszczonych procesorach pentium- więc
    taka wydajność nie dziwi, z kolei ciężko jest je porównać do SP w GPU.
    Może się okazać że Larrabee będzie tylko ciekawostką technologiczną zmierzającą do czegoś lepszego- bo okaże się za drogie i za słabe do jakiegokolwiek zastosowania.

    44

  • AMD Vision - nowa wizja AMD

    Ocena komentarza: 0
    Myśle że pomysł jest całkiem dobry, szczególnie pod względem marketingowym. Równowaga pomiędzy firmami podażą i zyskiem powinna być ponieważ to warunkuje przyszłe ceny.
    Notebooki są podzielone na klasy, ale AMD w wersji Premium jeszcze instaluje radeony 3200/4200 o bardzo słabej wydajności-
    w wersji Premium można jedynie zainteresować się notebookiem z 
    radeon 4330 ponieważ ma już pamięci gddr3 - wydajność w 
    3d mark 06: 2350pkt, z kolei w 3d mark 05: 4980pkt
    w teście benchmark radeon 4200 w 3 dmark 06- 1600pkt.
    Różnica niby nie wielka -650pkt, ale zdecydowanie uprzyjemni granie, i pozwoli na jeszcze parę gier.


    Co do zestawienia GPU jest to dobry wzorzec, ale o wiele lepszym sposobem byłaby zwykła tabela kart graficznych z:
    wielkością szyny, ilości pamięci, shader, potoki, częstotliwości i najważniejsze : ilość klatek w rozdz 1280, albo 1680 max detale w 3-6 najpopularniejszych, najbardziej realistycznych gier na rynku, 3dmarki też mogą być ale nie muszą- tylko jako ciekawostka. Mogą się też znaleźć ceny komputronik. Byłoby to najlepsze i najwygodniejsze znalezienie karty graficznej.

    87

  • TOP-100 najlepsze gry XX wieku cz.1

    Ocena komentarza: 0
    Warto dodawać kultowe gry także po 2000roku - tak żeby zrobić
    zestaw najlepszych gier wszechczasów, aż po najnowsze gry.
    Jak dla mnie brakuje tutaj Need For Speed i symulatorów lotniczych, łodzi podwodnych- nie można zapomnieć o legendarnym Flight Unlimited który nadal szokuje realizmem zwłaszcza fizyką i pogodą- z niesamowitym klimatem,Microsoft Flight Simulator- i wielu innych pozycjach symulatorów lotniczych, czy o Silent Hunter. Warto dodać także bardzo dobrą i dopracowaną graficznie grę Project IGI.
    Taka rozpiska nie tylko przypomni, ale także umożliwi poznanie najlepszych gier - które niekoniecznie muszą mieć najlepszą grafikę - wystarczy przypomnieć sobie tylko o kultowym Commandos, czy Need For Speed Porsche 2000-świetny klimat i fizyka...

    169

  • ATi Radeon HD 5700 - nowsze, tanie i z DirectX 11

    Ocena komentarza: 0
    Jestem posiadaczem notebooka który pobiera 65W energii, i mam zamiar zakupić PC głównie do gier, ale gdy patrze na zużycie dzisiejszych PC-ów na poziomie 400-800W głównie dla mocnych grafik myśl o zakupie gtx260/280, gts250, hd4870, 5870 i wszystkich grafik powyżej 90W -pozostaje wspomnieniem.
    Dosłownie można tak to powiedzieć, myślę że rewolucja to przyzwoita/przeciętna płynność w nowych grach, ale z małym poborem prądu.
    Jedyną jak na razie kartą, która może się tym poszczycić to Radeon 4650/4670 zużywająca 59W - a to pozwala na firmowy zasilacz 300-350W. To jest niesamowite, tym bardziej że niektórzy kupują zasilacze dwa razy mocniejsze -500-800Wat, tylko po to aby pograć w trochę lepsze ustawienia, a zapominają że to już pobiera tyle prądu co mikrofalówka...

    Dlatego tak ważna jest prośba do benchmark, aby w zestawieniu
    kart GPU dopisali jakiej mocy jest potrzebny zasilacz do typowego standardowego komputera na Core Duo, albo AthlonX2.

    Warto też wstawić śr ilość klatek w Crysis , czy grach na najnowszym silniku Crytek 3- w optymalnych ustawieniach 1280, 1680 śr detale, albo wysokie.

    91

  • GTX275 i GTS250 na jednym PCB. Ciekawy pomysł NVidii i EVGA?

    Ocena komentarza: 0
    karta nie za bardzo opłacalna, tak jak podobne układy 2xgpu.
    Nie da nadzwyczajnej wydajności- będzie to zysk podobny jak w układach 2xgpu i zapewne tylko w PhysX
    Tu liczy się bardziej marketing i liczby, oraz profesjonalne zastosowania.
    Większość odbiorców high-end czeka i chce kupić gt300, dlatego ten układ chyba nie może podbić rynku.

    40

  • [Aktualizacja, 14.10] Nvidia bez ION? Producent idzie na wojnę z Intelem?

    Ocena komentarza: 0
    Mogę powiedzieć
    że te teorie są prawdopodobne, albo prawdziwe, jak ta, o pomocy Nvidii dla intela w Larrabee :
    http://www.frazpc.pl/news/24397-NVIDIA_rozz%C5%82oszczona,_Larrabee_Intela_w_opa%C5%82ach

    Na pewno te informacje z tej strony tłumaczą jak wiele Intel musiał zrozumieć co do dalszej współpracy z Nvidią nad platformą ION, i innymi planami.

    Jest to dziwne że Nvidia pomogła w realizacji karty/procesora Larrabee, który może zniszczyć jej rynek zbytu, może to ważyć nawet o przyszłości tej firmy.
    Dlatego tak bliska ale niepewna jest możliwość wchłonięcia tej firmy przez Intel.

    Koncepcja Nvidii nad układem GPGPU (CPU z GPU jak Larrabee)
    jest prawie pewna bo już istnieje u AMD (2011r.) i Intel(2010/2011- Larrabee).

    51

  • [Aktualizacja, 14.10] Nvidia bez ION? Producent idzie na wojnę z Intelem?

    Ocena komentarza: 0
    Mało realne jest to że Nvidia wyprodukuje procesor taki jak Larrabee
    , albo podobny AMD czyli połączenie GPU z CPU.
    Po pierwsze potrzebne są różne zgody na działalność procesorów w x86- to kosztuje zapewne.
    , po drugie oprogramowanie, do połączenia i działania CPU/GPU
    , po trzecie potrzebne są ogromne nakłady finansowe z tym związane
    Fermi bardzo przypomina taki procesor, choćby dlatego że ma pamięć podręczną - ale to czyste spekulacje, a nawet jeśli to do tego daleka droga- chociaż miło by było jakby się tak stało, nawet w następcy Fermi. Doprowadziłoby to do lawinowego wypuszczenia Larrabee i odpowiednika AMD.
    Ale bądźmy realistami zawsze czy to pod CPU, czy GPU zostawało dwóch graczy na rynku- odpowiednio Intel/AMD, Nvidia/Ati . I tak zapewne będzie z nową technologią CPU z GPU kiedy zostaną już tylko takie technologie bo do tego wszystko dąży.
    Nvidia jest osłabiona i zapewne niedługo zostanie wchłonięta do Intela jak Ati do AMD, mimo że próbuje walczyć o rynek procesorów (GPU z CPU). To jest nieuniknione, ale można powiedzieć że sama Nvidia dała się oszukać Intelowi bo tworzyła układ graficzny
    do Larrabee- sterowniki pewnie także zostały użyte...
    Intel ma już niestety wszystko- i świetne CPU i świetne GPU do Larrabee- choć nie jej autorstwa, a patrząc na wydarzenia z licencjami można powiedzieć że wręcz okradła Nvidie z rozwiązań GPU . To już pewne że cała spółka Nvidii wcześniej czy później będzie Intelem....


    51

  • ATi Radeon HD 5850 - taniej, ale wciąż wydajnie

    Ocena komentarza: 0
    Mam pytanie- czy najnowsze procesory od intela Larrabee(2010/2011) oraz AMD (2011) które będą połączeniem CPU z GPU - pozwolą na tak wysokie taktowania GPU jak CPU czyli na poziomie 1600-2000MHZ, czy nadal będą oparte na dzisiejszej technologii która pozwala tylko na bezpieczne częstotliwości 1000mhz w technologii 40nm ?
    Jeśli to pierwsze to rzeczywiście rewolucja zmniejszająca rozbudowę GPU(mniej SP, TMU, potoki), przy takiej wydajności jak przynajmniej dzisiejsze karty graficzne.
    Jeśli to drugie niestety tylko ewolucja zmniejszania komputerów ,rynkowa, także ekonomiczna.

    65

  • AMD: Radeon HD 6000 w 2010 roku?

    Ocena komentarza: 0
    W jakim celu mają posłużyć najnowsze karty graficzne, które różnią się wydajnością o kilkanaście procent w fps od poprzednich generacji?
    Nie ma sensu kupować kartę za 1000zł, jeśli za 300-400zł mamy podobną płynność w wystarczających, dość wysokich ustawieniach.
    Tak naprawdę dopiero rewolucyjne silniki graficzne, nowej klasy w grach muszą skłonić nas do zmiany grafiki. Tak jak to było z dx9 na dx10 i z gf7900 na gf8800gtx.
    Reszta nowości z jaką się spotykamy to lekkie ulepszanie dobrego tej samej klasy- za sporo większe pieniądze.
    Dx10 na Dx11 to tylko modyfikacja, nie rewolucja , także pod względem nowych kart.

    50

  • Specyfikacja techniczna GT300

    Ocena komentarza: 0
    można ogólnie powiedzieć że we wszystkich grach wzrost wydajności nie odzwierciedla 2x większej rozbudowy w SP, potoki i tekstury.
    Powód to niskie taktowania. Nie lepiej zrobić specjalne GPU taktowane
    jak procesory, żeby wykorzystać potencjał?
    Takie rozwiązanie dałoby sporo większą moc i to uwaga z o wiele mniejszą ilością SP, potok i tekstur.
    Słyszałem że procesory Intela mają w przyszłości mieć wbudowane GPU co sugeruje że będą podobnie taktowane.
    Co do kart hd5870 i gt300 - nie lepiej za te same pieniądze złożyć drugi komputer i to z całkowicie wystarczającą kartą geforce 8800gt/hd4850?
    , albo po prostu poczekać na jakąś prawdziwą rewolucje,czy ogromny przyrost wydajności np. w gt500, czy gt600?
    Bez sensu wydawać 1000-1500zł na kartę, która jest produktem pośrednim patrząc po testach-chodzi o hd 5870.
    gt 300 także nie będzie rewolucją, bo hd5870 nie jest- to chyba zrozumiałe dlaczego.

    77

  • Specyfikacja techniczna GT300

    Ocena komentarza: 0
    Robi to wrażenie, zwłaszcza 512 procesorów strumieniowych, 3mld tranzystorów.
    Przepustowość będzie bardzo duża.
    W połączeniu z 40nm będzie to mocna karta.
    Ale patrząc na znikomy przyrost fps jaki był w Crysis w kartach
    Radeon pomiędzy 4870 a 5870 w najsłabszych ustawieniach w benchmark- tylko 8-10fps - nie mówiąc o różnicy z 4890 który jest identycznie taktowany w gpu jak 5870 (5 fps) to należy się zastanowić jak niewiele
    większą płynność daje karta dwa razy bardziej rozbudowana- czy to nie dziwne?
    Dziwniejsze jest to że identyczną, albo bardzo podobną płynność uzyskujemy w 4890 toxic- jak w 5870 w Crysis
    Samą rozbudową gpu nie zwiększymy mocno fps, do tego trzeba większej częstotliwości - zwłaszcza gdy się przekroczy pewną granice w ilości SP, potok, tekstur bo gra już tego nie wykorzystuje- do obliczeń wystarczy mniej .
    Dlatego rewelacji nie ma się co spodziewać,- potrzebne są taktowania
    na poziomie przynajmniej 1000-1200mhz

    77

  • Radeon HD 5870 - premiera kart graficznych AMD 5800

    Ocena komentarza: 0
    pomyłka : 4890toxic ma 960mhz, a 5870 850mhz.
    Widać że nawet 100mhz więcej daje ogromny przyrost fps, co tylko stwierdza fakt że w układach gpu brakuje dużych taktowań
    1100-1600

    208

  • Radeon HD 5870 - premiera kart graficznych AMD 5800

    Ocena komentarza: 0
    Ta karta rzeczywiście ma ogromną moc, ale to nie przekłada się
    wzrostem wydajności w grach - teoretycznie mając 2x większą moc od 4870 powinna mieć jakieś 50% więcej fps, a  w Crysis ma tylko ok 10 klatek więcej i to w najsłabszych ustawieniach testowych: 1280x1024 max quality, no AA.
    Nie mówiąc już o różnicy z 4890 - tam tylko śr 5fps
    A na dodatek z radeonem 4890 toxic, taktowanym 980mhz na gpu nie powinno być chyba żadnych różnic na tych ustawieniach, nawet w wyższych ustawieniach.
    Dlaczego tak jest?
    Test na Crysis daje nam odpowiedź
    Mimo podwójnej ilości shader, potoków i tekstur od 4890 toxic
    gra tego nie wykorzystuje tzn. nie potrzebuje, nawet jak to wykorzystuje to różnice są 5-10 klatek w najsłabszych ustawieniach testowych- czyli niewielkich - nie dają nam podstawy aby wydać 1500zł na nową kartę, jak na starej pogramy tak samo płynnie.
    Więc w czym leży problem - karta jest zabójczo mocna?
    Czego brakuje?
    Oczywiście brakuje taktowania które wykazało by potencjał karty w rzędach 1000-1100 może nawet do 1200mhz- dających radę technologicznie (chociaż to i tak mało).
    W tej chwili moc ta nie jest wykorzystywana jak powinno - nie ma szybkości na gpu.
    Być może overclocking dojdzie powyżej 1000 i w górę,a wtedy powinno być 10-15fps więcej. Ale jeśli to da się zrobić.
    Na razie karta jest najmocniejsza z pojedynczych gpu i specjalnie stworzona do najnowszych gier pod dx 11, a wtedy wykorzysta wszystkie shader, tmu i potoki


    208