Avatar użytkownika

Nieznośny

data dołączenia:

Moje komentarze (632)

    • Avatar użytkownika Nieznośny
      Nieznośny
      Nadal odwzorowanie kolorów będzie kulało więc ja się zgadzam z tym co wyżej ludzie napisali. Z OLEDami nie mają szans. Wolę większy pobór prądu mieć, ale za to odwzorowanie kolorów i przede wszystkim dobrej jakości czerń niż dalej jechać na tym samym. Zagęszczenie pikseli? Do 2017 to OLEDy zapewne stanieją, a zagęszczenie, to myślę, że bardzo prosta sprawa dla Samsunga. Wystarczy spojrzeć jakie teraz jest w wyświetlaczach używanych w smartfonach.
      • Avatar użytkownika Nieznośny
        Nieznośny
        Wyciec to może kropla z rury w kiblu, a nie mapa z gry tworzonej w firmie, która raczej pilnuje swoich pracowników i danych....
        • Avatar użytkownika Nieznośny
          Nieznośny
          Bzdura. Nie dominowali na rynku dzięki Athlonom. Były to swego czasu świetne procesory, które wydajnością mocno przewyższały konkurencyjne procesory Intela, ale co z tego, skoro Intel stosował praktyki niezgodne z prawem (ostatnio przecież pisali na wszystkich portalach, że dostali karę opiewającą na miliard dolarów odszkodowania dla AMD za blokowanie sprzedaży procesorów AMD kilka lat temu). Pamiętam jak ta sprawa trafiła do sądu i wtedy nikt w to nie wierzył,a potem jak AMD wygrało pierwszą sprawę sądową (to było zanim Intel się odwołał od tej decyzji) nagle wszyscy wielce zdziwieni. Ponadto zakup ATI wcale nie był wielce trafionym pomysłem. Kolejna bzdura. AMD mocno przepłaciło za ATI i zmuszeni byli przez to sprzedać swoją fabrykę (albo nawet fabryki, teraz już nie pamiętam). Czy zakup się opłacił? Z obecnej perspektywy niby tak, bo to jeden z ich nielicznych działów (karty graficzne), który przynosi spore zyski, ale z drugiej strony nie da się jednoznacznie powiedzieć czy AMD, gdyby nie sprzedało fabryk, to by na procesorach lepiej nie zarabiało dzisiaj. Zapewne również nikt nie pamięta (takie ciekawostki): pierwotnie zanim AMD kupiło ATI, były prowadzone rozmowy z NVIDIĄ na temat fuzji. Zakończyły się fiaskiem, bo obecny CEO NVIDII upierał się, że chce być CEO nowej firmy po fuzji. Podobno to był jeden z powodów. AMD po nieudanych negocjacjach z NVIDIĄ postanowiło zakupić ATI. Ponadto kolejna ciekawostka: AMD projektowało kiedyś procesory ARM,ale potem sprzedali technologie czy tam oddział. Nie pamiętam tego dokładnie. W każdym bądź razie jak widać w dzisiejszych czasach, to był jeden z największych ich błędów. Teraz by trzepali sporo kapuchy na tym. Reasumując zanim coś napiszesz, to się dokształć. Bo wiedzę masz znikomą najwyraźniej,a wprowadzasz ludzi w błąd.
          -2
          • Avatar użytkownika Nieznośny
            Nieznośny
            Teraz? Już od dawna przewyższają od ładnych paru lat. Zapadłeś w sen zimowy czy jak? Właśnie dlatego zarówno AMD jak i NVIDIa wciskają swoje rozwiązania programowe, aby obliczenia dawniej wykonywane na procesorze, przerzucać na GPU co jest dużym plusem.
            • Avatar użytkownika Nieznośny
              Nieznośny
              "Szewc bez butów chodzi".
              • Avatar użytkownika Nieznośny
                Nieznośny
                Mi Gigabyte wymienił na tą kartę Radeona 7950.... Tyle,że za 7950 płaciłem 1235zł i wymieniali mi tak przez pół roku po przeciąganiu napraw przez 6 miesięcy. Chyba skrobnę coś na forum na ich temat, bo historia jest niestety dla mnie dosyć ciekawa. Dosyć ciężkie i długie przeboje miałem z ich serwisem. Na koniec niby fajnie,bo rzeczywiście fabryczny model dostałem R9 280, ale co mi po tym jak wartość karty w momencie wymiany wynosiła raptem jakoś 1050zł? Trochę chamówa, zwłaszcza po tym jak czekałem pół roku aż łaskawie w końcu wymienią po 3 nieudanych próbach naprawy.
                • Avatar użytkownika Nieznośny
                  Nieznośny
                  Ciekawe, że redakcja nie uraczyła nas innym newsem odnośnie firmy Samsung. Jakim? Ano takim, że SGS III jednak nie dostanie aktualizacji do Kitkata 4.4. Nie chcę wysnuwać teorii spiskowych, ale konkurencja napisała o tym, a tutaj na benchmarku same ohy i ahy o Samsungu. Dziwne to jest. Choć prawdą jest, że pisaliście o aferach z baterią w SGS bodajże IV kiedyś, ale ostatnio jakoś nie ma nic negatywnego o flagowcach Samsunga. Jeśli jednak jest to nieprawda, to zwracam honor.
                  • Avatar użytkownika Nieznośny
                    Nieznośny
                    Maj to też miesiąc wielu ciekawych premier filmowych takich jak: "Godzilla", "X-men", "Transcendencja", "Sabotage" czy "Teoria wszystkiego".
                    • Avatar użytkownika Nieznośny
                      Nieznośny
                      Brzydal okropny na tle Z2 i M8. Natomiast parametry fantastyczne. Widziałem ten filmik z kamerki S5 i jestem pod wrażeniem. Szkoda, że design na poziomie chińskiego, taniego telefonu. To mnie aktualnie bardziej odpycha od Samsunga i nie są w stanie zmienić tego te rewelacyjne parametry. Poczekam z zakupem nowego telefonu jeszcze rok i zobaczę czy konkurencja będzie miała już lepszą kamerkę i lepszą rozdzielczość.
                      • Avatar użytkownika Nieznośny
                        Nieznośny
                        Zgadzam się w stu procentach. Mam takie same zdanie na ten temat. Im mniej kabli, tym lepiej. Poza tym bywa tak, że plątanina kabli jest większa przez to, że jest większa odległość jakiegoś urządzenia do gniazdka, aniżeli to kompa czy nawet monitora (nie zapominajmy, że wiele monitorów ma też złącza USB wbudowane).
                        • Avatar użytkownika Nieznośny
                          Nieznośny
                          No i bardzo dobrze. Nareszcie będzie można sporo urządzeń zasilać kablem USB. Może za sto lat wymyślą jeszcze jakiś efektywny sposób na zasilanie czegoś bez kabli chociaż to fizycznie prawie niemożliwe. Intel z tego co pamiętam kombinował z bezprzewodowym zasilaniem, ale wyglądało to co najmniej śmiesznie.