Gry

Podsumowanie testów

opublikowano przez Maksym Słomski w dniu 2011-03-04

Nie da się ukryć, że bez ograniczenia ilości klatek nałożonego przez producentów grałoby się przyjemniej. Póki co, jeśli nie chcemy używać nie do końca legalnych programów, musimy wykazać się cierpliwością. Wydaje się, że producent zareaguje w odpowiedni sposób na skargi graczy i wprowadzi niezbędne zmiany.

Bulletstorm nie jest wolny od wad w kwestiach związanych z grafiką. Zdarzają się niczym nieusprawiedliwione spadki płynności animacji, a gra na razie nie darzy kart Nvidii wielką sympatią. Po wyłączeniu antyaliasingu wszystko jednak wraca do normy i grać można nawet na słabiutkich kartach, zbliżonych pod względem wydajności do 8600 GT.

Na wszelki wypadek lepiej posiadać w zanadrzu 3 GB RAM. Nie zalecamy zabawy z Bulletstormem na procesorach jednordzeniowych. Nie są one bowiem w stanie poradzić sobie z utrzymaniem odpowiedniego, stałego poziomu liczby klatek. Rozsądnym minimum wydaje się być dwurdzeniowiec o taktowaniu na poziomie 2,66 GHz.

 

 

Moja ocena:
Grafika:
dobry
Dźwięk:
zadowalający plus
Grywalność:
dobry plus
Ogólna ocena: 
Orientacyjna cena w dniu publikacji testu: 119 zł (PC)

 

Przeczytaj także:
Test Drive Unlimited 2 - optymalne karty graficzne Optymalne karty graficzne do Gothic IV Dead Space 2 - optymalne karty graficzne

 

marketplace

Komentarze

106
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Czyli kolejna gierka, która potrafi zadowolić się 2 rdzeniami w procku
    Zaloguj się
  • avatar
    Dziwne te wyniki nvidii. Na moim GTX560Ti trzyma twardo 60 fps w 1920x1080 AAx8.
    Zaloguj się
  • avatar
    na wykresie "Bulletstor, RAM" jest błąd czy tak ma być, chodzi mi oto że minimalna wartość fps jest większa od średniej?

    tak to plusik poleciał
    Zaloguj się
  • avatar
    Kolejny test, w ktorym nie ma 5870 ;) rozumiem, ze mozna sobie interpolowac od 5850, no ale naprawde nie macie tej karty na stanie? :D
    Zaloguj się
  • avatar
    do tej mocno średniej gry to bym nawet "pegasusa" nie kupił ;)
    grafika z minionej epoki, nie wnosi nic nowego...
    Zaloguj się
  • avatar
    mi bardziej podoba się radkowy morphological AA niż AAx8 i właśnie z morfem gram w Bulleta :)
    Zaloguj się
  • avatar
    Athlon 3000+ @2700, 4GB ramu i GeForce 8600GT. Na full hd śmiga na średnich ustawieniach...
    Zaloguj się
  • avatar
    "będzie działać na procesorze Pentium 4 1,6 GHz"

    Nie wierzę.
    Zaloguj się
  • avatar
    Wiecie wszystko fajnie ale jednak miło by było gdyby oprócz rozdziałki Full HD zrobić testy jeszcze dajmy na to w HD. Gdybym zobaczył jak taki 4670 idzie w rozdziałce HD to mniej więcej wiedziałbym czy mój 5650 jakoś podoła... Ja wiem, że dzisiaj Full HD jest na topie, ale wciąż są ludzie, którzy grają w mniejszych rozdziałkach :)

    Pozdrawiam
    Zaloguj się
  • avatar
    Na UE 3.0 są ładniejsze gry choćby Mirror's Edge i Batman Arkham Asylum. Poza tym patrząc na kwestię technika/artystyka Bulleta bije stary dobry BioShock. :)
  • avatar
    Patrząc na wyniki testów to twórcy albo faworyzowali AMD albo coś spieprzyli z AA.
    Zaloguj się
  • avatar
    Patrząc po graficzkach, bardzo zróżnicowane i klimatyczne.

    I fajnie że był test wielordzeniowy CPU, choć nie doszukałem się przy jakiej karcie graficznej.
  • avatar
    1. Kolejna gra w której parametr "Texture Quality" praktycznie nie ma wpływu na wydajność, więc nawet grając na słabych kartach z Low Details można tekstury ustawić na maksa (pod warunkiem że nie zabraknie pamięci na karcie graficznej).
    I wbrew temu co piszecie zmiana jakości tekstur nie ma znaczenia kosmetycznego, podłoże przy Low jest rozmazane, a przy High ostre (tekstury ścian i obiektów tak samo).
    2. Co to jest "nasycenie rozdzielczości"?
    3. Z testami CPU jest coś nie tak. Minimal fps dla 2@2.66 to 17 fps, a dla 2@3.7 to 30 fps. Czyli zwiększenie zegara o 40% zaowocowało zwiększeniem wydajności o 75%. To niemożliwe.

    Zaloguj się
  • avatar
    Ogolnie gra fajna tylko wywala BSOD.
    Reinstal sterownikow nie pomogl, a radek 4850. Nie nieprzegrzewa sie...
  • avatar
    "Bulletstorm nie jest wolny od wad w kwestiach związanych z grafiką. Zdarzają się niczym nieusprawiedliwione spadki płynności animacji, a gra na razie nie darzy kart Nvidii wielką sympatią"

    Serio? Bo tu piszą inaczej. Co prawda aa "tylko" x4 ale konia z rzędem temu co odróżni aax4 od x8

    http://www.techspot.com/review/368-bulletstorm-performance/page5.html
    Zaloguj się
  • avatar
    A ja myślałem, że optymalizacji Unreal Engine nie da się zepsuć. Jednak się myliłem =/
    Zaloguj się
  • avatar
    Jeżeli macie "lagi" to dobrze jest edytować plik (ini decrypterem) BaseEngine.ini i zmienić:

    w [Engine.Engine]
    bUseBackgroundLevelStreaming=False

    oraz

    Karta graficzna z 512MB: PoolSize=450
    Karta graficzna z 1024MB: PoolSize=900

    Problem z sekundowym "lagiem" w intro to już tylko wyłączenie go tzn. zmiana nazwy samego pliku "LoadingMovieStartup.bik"

    Wstyd, że w wersji na PC twórcy nie mogli zmienić takich banałów sami !!
  • avatar
    Czyli fullhd +30 FPS mam zapewnione, trza zamówić giere.
  • avatar
    ja wam powiem tyle.
    wyniki GTX 460 są z tyłka.
    gram w rodzielczosci 1920x1080, AAx8, detale max, v-sync on i stałe FPS. skąd tutaj taki wynik? nie mam pojecia.
    of kors, moj jest po OC - 850 mhz na rdzeniu, pamiec 1920 mhz.
    ale to tam wzrost o ~15-20%.
    Zaloguj się
  • avatar
    U mnie problem jest jeszcze większy !

    http://img694.imageshack.us/f/1pngg.jpg/

    Gra chodzi słabo na moim GTX260 ostro wykręconym oraz Quadzie Q6600 wykręconym na 3,5GHz.

    Płynnych 60fps nie da się uzyskać w 16080/1050 nawet na detalach minimalnych :( da się grać na detalach średnich ~ 30fps i tyle.

    Dopiero zauważyłem że gpu-z wskazuje zaledwie 50% obciążenia GP, a procek podczas ostrych starć nie przekracza 25% obciążenia... co tu spowalnia resztę?


    Bulletstorm naprawde potrzebuje patcha... zainstalowanie sterów beta od NV pod bulleta nie poprawiło sytuacji.
    Żeby nie było - pierwszy raz się z tym spotykam, cała reszta gier które mam działa jak trzeba.
    Zaloguj się
  • avatar
    Kiedy testy optymalnych kart graficznych do Sapera ? Tyle lat czekam odkąd gra wyszła i nic.
  • avatar
    W Bulletstormie zastosowano mocno już wysłużony, ale ciągle atrakcyjny dla producentó'w' gier, (...)
    Mała literówka na 2 stronie ;)
  • avatar
    Czyli HD5850 wciąż rządzi ;)
  • avatar
    ukończyłem, jak dla mnie to będzie trylogia :D bo gra czaderska!
    Zaloguj się
  • avatar
    @Se8a90 Spróbuj zmienić rozdzielczość z 1680x1050 na 1680x1048, a wszystko będzie śmigać jak marzenie. To jest też info dla innych, którym gra chodzi nie tak jak powinna. Bulletstorm ma poważną usterkę związaną z rozdzielczościami w formacie 16:10. Zmiana rozdziałki z przykładowej 1680x1050 na 1680x1048 sprawia, że wykorzystywany jest cały potencjał sprzętu, a nie tak jak to ma miejsce jak u kolegi Se8a90.

    Problem jest już zgłoszony na oficjalnym forum gry, a deweloperzy przyglądają się temu problemowi.

    Na moim sprzęcie AMD Athlon X2 250 3.0GHz, 4GB RAM i GeForce 8800GS 384MB, dzięki temu zabiegowi gra na najwyższych ustawieniach chodzi w stałych 62fpsach(limit) z minimalnym spadkiem przy wczytywaniu lokacji czy botów do 50fpsów. Dla tych, którym ten zabieg nie będzie działał, polecam jeszcze pobranie najnowszych sterowników.
    Zaloguj się
  • avatar
    Na jakiej karcie były przeprowadzane testy CPU i czy nie moglibyście zrobić również testów CPU na odpowiednikach cenowych konkurencji?
  • avatar
    Czy ktoś jeszcze ma problemy z grafiką w grze na kartach Radeon HD 6950/70? Problem pojawia się gdy w opcjach graficznych ustawimy jakość obróbki na "WYSOKA":

    http://www.overclock.net/pc-games/951124-bulletstorm-artifacts-6900-series-cards-2.html

    Czy te problemy wynikają z braku kompatybilności gry z nowymi kartami czy też sterowniki nie są dopracowane? Używam najnowszych (11.2).
    Zaloguj się
  • avatar
    Wszystko fajnie tylko przeszedłem tą grę na moim GTX-e 260 na full detalach i nie miałem jakoś średnio 23 FPS. Ja mam średnio 48 -.- .
  • avatar
    Gra ma dużą niedoróbę... nie obsługuje 4:3... włączam 1024x768 albo 1280x960 i co... mam obciętą górę i dół... panorama na monitorze 4:3... aż żal d*pę ściska... :/
    Zaloguj się
  • avatar
    Maksymie, widać wkład pracy w tym artykule, ale dosłownie skręca mnie w środku, że wkradł się tu tak okrutny błąd merytoryczny:
    Otóż NIE MOŻNA podawać zysku konkretnego efektu jako "zyskanych klatkach na sekundę". FPS jest owszem, najpopularniejszą skalą w "poglądowych" benchmarkach, ale pamiętajmy, że to nie jest skala liniowa- nie można sumować sobie, że jeśli np. tekstury wysokiej jakości zabierają X fps, a postprocessing Y fps, to razem zabiorą X+Y. Nic bardziej mylnego! Stwierdzenie "10 FPS więcej" nie niesie zupełnie żadnych informacji, bo spadek 50->60 FPS i 10->20 FPS to ogromna różnica - w jednym przypadku efekt zajmuje połowę czasu rysowania klatki, w drugim jedynie mniejszy ułamek.

    Aby takie benchmarki miały sens, należy używać właściwszej (liniowej) skali, czyli po prostu czasu rysowania klatki - na przykład ms/f.

    Pozdrawiam i życzę powodzenia w dalszych artykułach!
    Zaloguj się