Abstrahując od wojny PS4 vs. XBO...
"Przypomnijmy, że światowa premiera konsoli Xbox Ona datowana jest na listopad bieżącego roku."
Może warto byłoby puścić plotkę, że wersja "Ona" będzie w kolorach pastelowych, natomiast "On" wyłącznie Black i Military Green;)
Taki mały żarcik, bo trudno się powstrzymać.
Tak, Niemcy sa tak malo inteligentni, ze po przegranej wojnie podniesli sie chyba najszybciej i najwyzej z calego Swiata;) A co ma piernik do wiatraka, czyli inteligencja wspolnego z wiedza? Moge nie miec pojecia o geografii, a nawet nie lubic, co nie oznacza, ze nie jestem inteligentny (mam inne cechy prowadzace do tego wniosku;).
Nawet najbardziej byle jak ubrana dziewczyna (byle by w glowie miala co trzeba) zawsze jest lepsza od chocby najlepiej rozebranej na obrazkach. I nie wazne, czy obrazki sa statyczne, ruchome, 2D, stereo, holograficzne czy jakiekolwiek:). Uroda i figura sa dodatkowymi atutami, a rozebrac tez przecie mozna;)
A jesli chodzi o czepianie sie, to zgadzam sie,ze ta technika "3D", przestarzala czy nie, jest w tej wiadomosci tylko dodatkiem do niepotrzebnej tutaj reklamy pisma. A po drugie: "Polska" nalezy pisac przez duze "P", nawet jesli w wyborach prezydenckich mamy do wyboru samo zlo, a w kraju jak zawsze u wladzy pozostanie Kosciol kat. Ups, chyba naruszylem regulamin, lol
Kilogram zelastwa za mniej niz dwie paki... Hmm, przestane zbierac na Mugena jesli ten okaze sie rownie wydajny.
0
Wasyl
Otoz to. Cale szczescie, ze nie uzyl slowa "wentyl" albo "blower", bo pierwsze to pewnie w rowerze (a moze jednak "zawor"), a drugie nie po naszemu;). Zauwazylem, ze juz od dawna komentujacy na Benchmarku czepiaja sie tego "wiatraka", a jakos nigdy nie widza naprawde razacych bledow, nie wspominajac o tych, ktore sami popelniaja. Gdyby chciec poprawic ten "news", wyszlyby z tego niezle jaja. Juz nawet w tytule nalezaloby uzyc slowa "wkrotce", bo "niedlugo" moze na upartego oznaczac "krotko byl i juz nie ma" albo "bedzie tylko chwile". Zwlaszcza po tym, jak "mondre profesory" namieszali z partykula "nie":) Ludziska, troche luzu i nie czepiajta sie wiatraka:)
P.S.: Oj, ciezko mi bez polskich czcionek, lol
Tak na przyszłość, panie red., byłoby miło gdyby tytuł wiadomości miał coś wspólnego z jej treścią. I nie mam tu na myśli nazwy firmy. Jeśli zostało napisane, że są bardziej energooszczędne, to dlaczego nie ma ani słowa o tym ile żrą i o ile jest to mniej, niż inne modele o tych przekątnych? Dobrze, że chociaż z komentarzy można coś wyłowić.
A ja czekam na moment, kiedy ci mędrcy projektujący systemy chłodzenia kart graficznych odkryją, że zadaniem tegoż nie może być ogrzewanie wnętrza obudowy kompa, a co za tym idzie pozostałych komponentów. Nawet intel wreszcie chyba powoli to sobie uświadamia, skoro dołączył do swojego procesora (chociaż chyba tylko do jednego) radiator z wentylem, kierujący ciepłe powietrze do tylnej (bądź górnej - jak kto woli) ściany obudowy, gdzie zwykle jest jakiś wentylator wyciągający powietrze z budy. Bez względu na to, jak bardzo rozbudowane będzie chłodzenie grafiki, jest ono o kant dupy potłuc bez odpowiedniej wentylacji obudowy - to prawda, ale dlaczego to ja muszę się martwić o wentylację tylko dlatego, że inżynier bierze kasę za wygląd dzieła, a nie jego funkcjonalność? Chyba naprawdę w ramach egzaminów piszą wiersze o pięknie chabrów nad strumieniem pośród wzgórz;) Karta graficzna, póki co, jest mocowana do OBUDOWY, więc jaki jest problem, żeby jej chłodzenie wypluwało ogrzane powietrze NA ZEWNĄTRZ? Dlaczego tylko producenci zasilaczów coś takiego dają w standardzie? Aż mi głupio, że się powtarzam.
Jeśli wziąć pod uwagę kogoś, kto w 95% używa kompa do grania (nie mówię tu o sobie:)), wyniki mogą wydać się bardzo dziwne i aż prosi się o szukanie jakiegoś sposobu na ich zmianę. Bo można pomyśleć, że dla dwóch rdzeni @ około 2.5GHz RAM tatowany wyżej niż 400MHz w dualu mija się z celem (ekstrapolując 4 rdzenie - 800MHz w dualu itd.). Oczywiście tak na oko, uogólniając i zakładając ten typ procesora (phenom, core 2, core i itd. może troszkę inaczej). I na co teraz komu DDR3 1600MHz, 2000MHz... triple channel, quad channel... itp.? Ano tak - producentom:) Daję 5, bo test jest UŻYTECZNY, bez względu na to czy to DDR2 czy 3. Niektórzy powinni uświadomić sobie, że rodzaj pamięci nie zmieni wniosków. Rownie dobrze można by się czepiać użycia routera 100Mb/s testowanego przy połączeniu z netem 2Mb/s, bo dlaczego nie użyto routera gigabit?:)
A pulpit zdalny abo inne cóś nie da rady? Nie znam się ale od czego są fachowcy;) Z góry zakładam, że specjalistyczna "hamownia", w którą wciska się samą grafę to przegięcie i nie posądzam Redakcji o możliwości dostępu do takowej:)
0
Wasyl
Jestem lamerem;) Ale tak sobie myślę, czy aby na pewno nie jesteście w stanie zmierzyć poboru prądu samej karty graficznej... Czy używana przez Was w testach płyta nie jest w stanie pracować bez karty? Ponoć postawiony w warunkach domowych złożony z jakiegoś badziewia serwer potrafi. A jeśli tak to może da się sterować obciążeniem CPU po wyjęciu VGA w taki sposób, aby uzyskać odczyt poboru energii w spoczynku i pod obciążeniem, co dałoby wyniki potrzebne do obliczenia tegoż z włożoną grafiką... A może da się to wszystko przeprowadzić z użyciem kompa sterującego testowaną maszyną przez sieć? I jeszcze jedno głupie pytanie: czy są już VGA "niezależne" - podłączane przez USB i z własnym zasilaniem? Jeśli któraś z tych metod jest wykonalna, to błąd pomiaru mógłby się chyba zmieścić w granicach +/-3W... Ale to tylko takie lamerskie dywagacje:) pozdrawiam
0
Wasyl
Fakt. Ja myślałem o tym, czy nie postarać się o coś nowszego od mojego 8800GTS 320MB, bo nie podobało mi sie, że mój zestaw żre spoczynek ~175W/max ~270W wliczając mały monitorek 17" i router. A tu okazuje się, że co najwyżej uzyskałbym to samo zużycie prądu ale nieco bardziej wydajny zestaw, przy czym sporo grosza by poszło, bo dostałem ofertę 50 zeta za mojego GTSa:) Wyszło na to, że zjechałem do ~160W/~230W obniżając zegary procka i grafiki oraz napięcie procka. Tylko jaki w tym sens, skoro teraz to już GRAW2 ledwie stęka na najniższych ustawieniach?:( Pozostaje poczekać jeszcze jedną-dwie generacje GPU i szukać czegoś z niższej półki, niż był swego czasu 8800 (koniec z wypasionym zestawem - dwie gry, 3dsmark, kabelki, duperelki i chłodzenie wydmuchujące ciepło na zewnątrz budy:)).
Gdybym na tym filmiku usłyszał tekst w stylu "-Damn, I'm good." albo "-Boooorn to be wiiild...", to bym pomyślał, że Duke Nukem 4Ever jednak zamierzają skończyć:).
Może się mylę, ale z opisu chyba wynika, że to były cztery karty w CF, o czym być może autor zapomniał wspomnieć. Jeśli było tak w rzeczywistości, to nawet, jeżeli rekord nie został pobity przy zastosowaniu ciekłego azotu itp., to i tak wynik jest czystą abstrakcją dla 99.999% użytkowników tego modelu karty:)
Microsoft dementuje - konsola Xbox One nie będzie miała 12 GB pamięci RAM
35 komentarzyDyskutuj z nami!"Przypomnijmy, że światowa premiera konsoli Xbox Ona datowana jest na listopad bieżącego roku."
Może warto byłoby puścić plotkę, że wersja "Ona" będzie w kolorach pastelowych, natomiast "On" wyłącznie Black i Military Green;)
Taki mały żarcik, bo trudno się powstrzymać.
Polska gra podbija Niemcy
82 komentarzyDyskutuj z nami!Lipcowy PLAYBOY ze zdjęciami 3D
59 komentarzyDyskutuj z nami!A jesli chodzi o czepianie sie, to zgadzam sie,ze ta technika "3D", przestarzala czy nie, jest w tej wiadomosci tylko dodatkiem do niepotrzebnej tutaj reklamy pisma. A po drugie: "Polska" nalezy pisac przez duze "P", nawet jesli w wyborach prezydenckich mamy do wyboru samo zlo, a w kraju jak zawsze u wladzy pozostanie Kosciol kat. Ups, chyba naruszylem regulamin, lol
Scythe Ninja 3 niedługo w sklepach
27 komentarzyDyskutuj z nami!P.S.: Oj, ciezko mi bez polskich czcionek, lol
Plazmy Panasonic bardziej energooszczędne
29 komentarzyDyskutuj z nami!Gigabyte pokazał odmienionego GTX 465
9 komentarzyDyskutuj z nami!Wpływ parametrów pamięci RAM na wydajność w programach i grach
43 komentarzyDyskutuj z nami!Wielki test 24 kart graficznych od 850 do 2000 zł
190 komentarzyDyskutuj z nami!Zobacz rozgrywkę w Crysis 2
112 komentarzyDyskutuj z nami!Super karta Gigabyte bije rekordy w 3DMark
15 komentarzyDyskutuj z nami!