Avatar użytkownika Artur

Wasyl

data dołączenia:

Moje komentarze (52)

    • Avatar użytkownika Wasyl
      Wasyl
      Abstrahując od wojny PS4 vs. XBO...
      "Przypomnijmy, że światowa premiera konsoli Xbox Ona datowana jest na listopad bieżącego roku."
      Może warto byłoby puścić plotkę, że wersja "Ona" będzie w kolorach pastelowych, natomiast "On" wyłącznie Black i Military Green;)
      Taki mały żarcik, bo trudno się powstrzymać.
      0
      • Avatar użytkownika Wasyl
        Wasyl
        Tak, Niemcy sa tak malo inteligentni, ze po przegranej wojnie podniesli sie chyba najszybciej i najwyzej z calego Swiata;) A co ma piernik do wiatraka, czyli inteligencja wspolnego z wiedza? Moge nie miec pojecia o geografii, a nawet nie lubic, co nie oznacza, ze nie jestem inteligentny (mam inne cechy prowadzace do tego wniosku;).
        0
        • Avatar użytkownika Wasyl
          Wasyl
          Nawet najbardziej byle jak ubrana dziewczyna (byle by w glowie miala co trzeba) zawsze jest lepsza od chocby najlepiej rozebranej na obrazkach. I nie wazne, czy obrazki sa statyczne, ruchome, 2D, stereo, holograficzne czy jakiekolwiek:). Uroda i figura sa dodatkowymi atutami, a rozebrac tez przecie mozna;)
          A jesli chodzi o czepianie sie, to zgadzam sie,ze ta technika "3D", przestarzala czy nie, jest w tej wiadomosci tylko dodatkiem do niepotrzebnej tutaj reklamy pisma. A po drugie: "Polska" nalezy pisac przez duze "P", nawet jesli w wyborach prezydenckich mamy do wyboru samo zlo, a w kraju jak zawsze u wladzy pozostanie Kosciol kat. Ups, chyba naruszylem regulamin, lol
          0
          • Avatar użytkownika Wasyl
            Wasyl
            Kilogram zelastwa za mniej niz dwie paki... Hmm, przestane zbierac na Mugena jesli ten okaze sie rownie wydajny.
            0
            • Avatar użytkownika Wasyl
              Wasyl
              Otoz to. Cale szczescie, ze nie uzyl slowa "wentyl" albo "blower", bo pierwsze to pewnie w rowerze (a moze jednak "zawor"), a drugie nie po naszemu;). Zauwazylem, ze juz od dawna komentujacy na Benchmarku czepiaja sie tego "wiatraka", a jakos nigdy nie widza naprawde razacych bledow, nie wspominajac o tych, ktore sami popelniaja. Gdyby chciec poprawic ten "news", wyszlyby z tego niezle jaja. Juz nawet w tytule nalezaloby uzyc slowa "wkrotce", bo "niedlugo" moze na upartego oznaczac "krotko byl i juz nie ma" albo "bedzie tylko chwile". Zwlaszcza po tym, jak "mondre profesory" namieszali z partykula "nie":) Ludziska, troche luzu i nie czepiajta sie wiatraka:)
              P.S.: Oj, ciezko mi bez polskich czcionek, lol
              0
              • Avatar użytkownika Wasyl
                Wasyl
                Tak na przyszłość, panie red., byłoby miło gdyby tytuł wiadomości miał coś wspólnego z jej treścią. I nie mam tu na myśli nazwy firmy. Jeśli zostało napisane, że są bardziej energooszczędne, to dlaczego nie ma ani słowa o tym ile żrą i o ile jest to mniej, niż inne modele o tych przekątnych? Dobrze, że chociaż z komentarzy można coś wyłowić.
                0
                • Avatar użytkownika Wasyl
                  Wasyl
                  A ja czekam na moment, kiedy ci mędrcy projektujący systemy chłodzenia kart graficznych odkryją, że zadaniem tegoż nie może być ogrzewanie wnętrza obudowy kompa, a co za tym idzie pozostałych komponentów. Nawet intel wreszcie chyba powoli to sobie uświadamia, skoro dołączył do swojego procesora (chociaż chyba tylko do jednego) radiator z wentylem, kierujący ciepłe powietrze do tylnej (bądź górnej - jak kto woli) ściany obudowy, gdzie zwykle jest jakiś wentylator wyciągający powietrze z budy. Bez względu na to, jak bardzo rozbudowane będzie chłodzenie grafiki, jest ono o kant dupy potłuc bez odpowiedniej wentylacji obudowy - to prawda, ale dlaczego to ja muszę się martwić o wentylację tylko dlatego, że inżynier bierze kasę za wygląd dzieła, a nie jego funkcjonalność? Chyba naprawdę w ramach egzaminów piszą wiersze o pięknie chabrów nad strumieniem pośród wzgórz;) Karta graficzna, póki co, jest mocowana do OBUDOWY, więc jaki jest problem, żeby jej chłodzenie wypluwało ogrzane powietrze NA ZEWNĄTRZ? Dlaczego tylko producenci zasilaczów coś takiego dają w standardzie? Aż mi głupio, że się powtarzam.
                  1
                  • Avatar użytkownika Wasyl
                    Wasyl
                    Jeśli wziąć pod uwagę kogoś, kto w 95% używa kompa do grania (nie mówię tu o sobie:)), wyniki mogą wydać się bardzo dziwne i aż prosi się o szukanie jakiegoś sposobu na ich zmianę. Bo można pomyśleć, że dla dwóch rdzeni @ około 2.5GHz RAM tatowany wyżej niż 400MHz w dualu mija się z celem (ekstrapolując 4 rdzenie - 800MHz w dualu itd.). Oczywiście tak na oko, uogólniając i zakładając ten typ procesora (phenom, core 2, core i itd. może troszkę inaczej). I na co teraz komu DDR3 1600MHz, 2000MHz... triple channel, quad channel... itp.? Ano tak - producentom:) Daję 5, bo test jest UŻYTECZNY, bez względu na to czy to DDR2 czy 3. Niektórzy powinni uświadomić sobie, że rodzaj pamięci nie zmieni wniosków. Rownie dobrze można by się czepiać użycia routera 100Mb/s testowanego przy połączeniu z netem 2Mb/s, bo dlaczego nie użyto routera gigabit?:)
                    0
                    • Avatar użytkownika Wasyl
                      Wasyl
                      A pulpit zdalny abo inne cóś nie da rady? Nie znam się ale od czego są fachowcy;) Z góry zakładam, że specjalistyczna "hamownia", w którą wciska się samą grafę to przegięcie i nie posądzam Redakcji o możliwości dostępu do takowej:)
                      0
                      • Avatar użytkownika Wasyl
                        Wasyl
                        Jestem lamerem;) Ale tak sobie myślę, czy aby na pewno nie jesteście w stanie zmierzyć poboru prądu samej karty graficznej... Czy używana przez Was w testach płyta nie jest w stanie pracować bez karty? Ponoć postawiony w warunkach domowych złożony z jakiegoś badziewia serwer potrafi. A jeśli tak to może da się sterować obciążeniem CPU po wyjęciu VGA w taki sposób, aby uzyskać odczyt poboru energii w spoczynku i pod obciążeniem, co dałoby wyniki potrzebne do obliczenia tegoż z włożoną grafiką... A może da się to wszystko przeprowadzić z użyciem kompa sterującego testowaną maszyną przez sieć? I jeszcze jedno głupie pytanie: czy są już VGA "niezależne" - podłączane przez USB i z własnym zasilaniem? Jeśli któraś z tych metod jest wykonalna, to błąd pomiaru mógłby się chyba zmieścić w granicach +/-3W... Ale to tylko takie lamerskie dywagacje:) pozdrawiam
                        0
                        • Avatar użytkownika Wasyl
                          Wasyl
                          Fakt. Ja myślałem o tym, czy nie postarać się o coś nowszego od mojego 8800GTS 320MB, bo nie podobało mi sie, że mój zestaw żre spoczynek ~175W/max ~270W wliczając mały monitorek 17" i router. A tu okazuje się, że co najwyżej uzyskałbym to samo zużycie prądu ale nieco bardziej wydajny zestaw, przy czym sporo grosza by poszło, bo dostałem ofertę 50 zeta za mojego GTSa:) Wyszło na to, że zjechałem do ~160W/~230W obniżając zegary procka i grafiki oraz napięcie procka. Tylko jaki w tym sens, skoro teraz to już GRAW2 ledwie stęka na najniższych ustawieniach?:( Pozostaje poczekać jeszcze jedną-dwie generacje GPU i szukać czegoś z niższej półki, niż był swego czasu 8800 (koniec z wypasionym zestawem - dwie gry, 3dsmark, kabelki, duperelki i chłodzenie wydmuchujące ciepło na zewnątrz budy:)).
                          0
                          • Avatar użytkownika Wasyl
                            Wasyl
                            Gdybym na tym filmiku usłyszał tekst w stylu "-Damn, I'm good." albo "-Boooorn to be wiiild...", to bym pomyślał, że Duke Nukem 4Ever jednak zamierzają skończyć:).
                            0
                            • Avatar użytkownika Wasyl
                              Wasyl
                              Może się mylę, ale z opisu chyba wynika, że to były cztery karty w CF, o czym być może autor zapomniał wspomnieć. Jeśli było tak w rzeczywistości, to nawet, jeżeli rekord nie został pobity przy zastosowaniu ciekłego azotu itp., to i tak wynik jest czystą abstrakcją dla 99.999% użytkowników tego modelu karty:)
                              0