Komputery

Zmartwienie producentów komputerów dla graczy

Grzegorz Kubera | Redaktor serwisu benchmark.pl
Autor: Grzegorz Kubera
6 komentarzy Dyskutuj z nami

Jak podaje zagraniczne źródło, producenci high-endowych komputerów dla graczy martwią się o wysokie zapotrzebowanie na energię elektryczną. Pecety z najwyższej półki pobierają jej zbyt dużo.

Firmy zajmujące się przygotowywaniem i sprzedawaniem gotowych zestawów komputerowych dla entuzjastów i najbardziej wymagających graczy wyrazili w jednym z wywiadów swoje obawy, które dotyczą zużywania energii. Obecnie wielu producentów przyznaje, że istnieje problem z zapewnieniem odpowiedniego systemu chłodzenia najwydajniejszym komponentom, jak również dużym zmartwieniem pozostaje zapotrzebowanie na prąd takich maszyn. Co więcej, żadna firma nie znalazła jeszcze rozwiązania tego problemu.


High-endowe komputery mają za duży apetyt na prąd

Kiedyś komputery dla graczy konsumowały niemal tyle samo energii elektrycznej co typowe zestawy wykorzystywane do pracy. Tymczasem w ostatnich latach sytuacja zmieniła się diametralnie. Za sprawą nieustającej rywalizacji na wydajność pomiędzy koncernami NVIDIA, ATI, Intel i AMD, na rynek trafiają coraz szybsze urządzenia. Niestety oferowana przez najnowsze komponenty większa moc obliczeniowa czy większa liczba klatek/s nie pozostaje bez wpływu na prądożerność. Jak twierdzą producenci high-endowych pecetów, fakt ten jest niepokojący zarówno dla nich, jak i dla klientów.

– Przysięgałem sobie, że nigdy nie przekroczę limitu 1000 W [mowa o zastosowaniu zasilacza o mocy 1000 W – przyp. red]. Niestety, takie przyrzeczenie mogło trwać nie więcej niż kilka lat. Teraz potrzebujemy już większych, jeszcze większych, i jeszcze większych zasilaczy – powiedział Kelt Reeves, szef firmy Falcon Northwest, która zajmuje się przygotowywaniem komputerów dla graczy.

Mamy powody do obaw. Zaledwie 3 lata temu najlepsze karty graficzne konsumowały ok. 80 W, podczas gdy dzisiejsze GeForce’y GTX 280 potrzebują już 180 W mocy, a dwuprocesorowe Radeony HD 4870 X2 – aż 265 W. (Stosowne pomiary przeprowadziło źródło tej wiadomości.) W tym samym czasie bardzo dobre procesory potrzebują ok. 130 W. Warto jednak zwrócić uwagę, że komputery dla najbardziej wymagających graczy są często wyposażone nie w jedną, ale w dwie lub nawet trzy karty graficzne. W takim wypadku, jeśli zdecydujemy się na trzy GeForce’y GTX 280, pobór mocy samych kart wyniesie ok. 540 W, pracujące zaś w tandemie Radeony HD 4870 X2 będą potrzebowały 530 W. Wówczas, karty graficzne konsumujące 540 W mocy, procesor potrzebujący do poprawnej pracy 130 W, jak również pozostałe podzespoły, takie jak pamięci, twarde dyski i napędy optyczne sprawiają, że komputer musi mieć zasilacz o mocy większej niż 800-900 W. Nic więcej dziwnego, że niektóre zestawy dla entuzjastów mają już zasilacze o mocy 1kW lub wyższej. Zawsze przecież musi pozostać jakiś zapas, aby użytkownik mógł chociażby zamontować dodatkowe dyski.

– Jeśli ten trend się utrzyma, wtedy, tak, będziemy mieli problem. Już teraz niektóre high-endowe systemy wymagają specjalnego gniazdka zasilania – tłumaczy George Yang, inżynier z IBuyPower.

Czy najnowsze procesory, a przede wszystkim karty graficzne będą cechować się jeszcze wyższym poborem energii elektrycznej? Warto zastanowić się nad liczbą watów mocy konsumowanych przez komputer. Zwłaszcza że ceny za prąd nie maleją.

Źródło: X-bit labs.com

Komentarze

6
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    _nick_
    Mnie też martwi ten problem. Ciężko będzie go rozwiązać, chyba dopiero po zmianie procesu technologicznego na inny da jakiś efekt, a najlepiej w ogóle zmienić technologie krzemową na inną...
  • avatar
    Konto usunięte
    Nareszcie zaczyna się głośno mówić o problemie mocy, bo do tej pory wszyscy prześcigali się w coraz wymyślniejszych kaloryferach, na powietrze, wodę, metal itp/itd.
  • avatar
    Gothar
    No ale co tu zrobic? Na to pytanie muszą sobie odpowiedziec ludzie. Jak ktoś kupuje kompa za 20tys to wie że nie bedzie to krajalnica do mięsa ale elektryczny rożen na 1000W i rachunek za prąd go nie obchodzi.
  • avatar
    Konto usunięte
    Co za bzdura. Te 'zestawy dla entuzjastów' to jedno wielkie oszustwo i naciąganie bogatych frajerów. Inaczej cieżko to nazwać. Przy wciąż znikomych zyskach z rozwiązań multi-GPU i rosnącej mocy pojedynczych GPU takie zestawy to pieniądze wyrzucone w błoto. Czy zestaw entuzjasty kupiony kilka lat temu, z AthonemX2 'Manchester', pamięcią DDR i GeForce6800 w SLI nadal jest maszyną marzeń dla gracza? Chyba nie. Dlatego też opowieści z krypty o dużym poborze prądu przez zestawy z 3x GTX280 to czysty absurd.
  • avatar
    Konto usunięte
    To nie jest absurd kilka GPU w zastosowaniach profesjonalnych potrafi zdziałać cuda :D - a z kompatybilnością z grami bywa rożnie . Sam mam Athlona 5200+ (niedawno składany komp rewersja na F3)do tego 780G, 2 GB ram i SB live digital 5.1 (bo ta zintegrowana gigabita 7.1 jest tandetna IMHO ) całość chłodzona Scythe Kathana w CM330 i cały komp po podkręceniu do 3.0 proca zżera max 130W (jak go Orthos molestuje a kartę obciążą benchmark)- zmierzone takim urządzeniem -domowym miernikiem pobodu energii firmy VELLEMAN (http://www.allegro.pl/item421829799_watomierz_licznik_energii_elektrycznej_miernik_hit.html).

    Teraz nie opłaca się kupować hig endowych kart i innych lepszym wyborem jest konsola mniej żre i nie trzeba jej aktualizować no i można mieć większy ekran za rozsądne pieniądze :D -pzdr.
  • avatar
    Konto usunięte
    Konsole są dla ludzi których nie interesują indywidualne ustawienia, dostęp do internetu + inne. Wkładają płytę z grą i ogień. Ale w dalszym ciągu pecet ma przewagę nad konsolą: mowa tu o symulatorach lotu (wiele monitorów).

    Pobór mocy jest faktycznie zatrważający! Zazwyczaj przy zwiększeniu ilości tranzystorów i wielkości ścieżek na "waflu" szło w parze ze zmniejszeniem napięcia i poboru energii. Mam wrażenie że niewiele się zmienia, a technologie są wdrażane zdecydowanie za wolno. Dobrym przykładem są tu ekrany OLED. Kiedy wpadli na to, a kiedy produkcja?