Komputery

Wstęp

przeczytasz w 7 min.

Rok 2007 obfitował w premiery nowego sprzętu komputerowego. Pod strzechami na dobre zawitały Core 2 Duo, dwurdzeniowe Athlony, 64 bity to codzienność a niedługo standardem będą 4 rdzenie. Geforce 8 i RadeonyHD serii 2/3x00 dostarczają najwyższej jakości obraz w pięknych detalach, wysokich rozdzielczościach i z wszystkimi dobrodziejstwami DirectX 10/OpenGL 2.1 i Shader Model 4.x Nasze ulubione gry i programy przechowywane są w super szybkich pamięciach DDR3 pracujących na niewyobrażalnych do tej pory częstotliwościach 1600MHz. A wszystko to oglądamy na wielkich, panoramicznych monitorach LCD. Krystalicznie czysty, naturalny dźwięk płynie z naszych głośników podłączonych do karty dźwiękowej będącej w stanie idealnie zasymulować i odwzorować każde środowisko. Czego więcej może oczekiwać użytkownik komputera, kiedy ma niemal wszystko? Tylko czy na pewno.


Procesory


Kiedy w okolicy 1990 roku po raz pierwszy zasiadłem przed własnym komputerem PC czułem się jak władca świata. Dość szybko procesor i286 12MHz zastąpił 40MHz 386 produkcji AMD. Z podziwem patrzyłem jak rosły prędkości i możliwości procesorów. Doradzając koledze zakup komputera poleciłem, poza inwestycja w 'małą stację dyskietek' procesor 486DX. Pamiętam, jakie wrażenie robił na mnie pierwszy Quake na 100MHz 486DX4. Potem nastała era Pentium, PentiumII, AMD K6, K6-2. Częstotliwości wciąż rosły i 400MHz procesory nie były niczym dziwnym. Po raz pierwszy chyba zaczęto wspominać o szynie systemowej, ilości i poziomach pamięci cache, dodatkowych instrukcjach 'multimedialnych' itp.

I tak się wszystko rozwijało, aż do roku 2003, kiedy to pojawiły się najszybsze AthlonyXP i Pentium4. Wtedy właśnie rozwój procesorów się zatrzymał i poniekąd tkwi w miejscu. W tym miejscu niektórzy pewnie będą oburzeni tą niemal heretycką teorią, jeśli jednak spojrzeć na sprawę spokojniej, można stwierdzić, że tak naprawdę aż tak wielkiego postępu nie było. Dobrze pamiętam recenzję Athlona 64 autorstwa Wojtka Kiełta. Nosiła ona tytuł "32 bity na teraz i 32 bity na ...później" Można odnieść wrażenie, że owo "później" jeszcze nie nastało. Większość użytkowników nadal ma zainstalowany 32-bitowy system. Nie znam ani jednej aplikacji, która działałaby tylko pod 64-bitowym systemem i tylko na 64-bitowym procesorze. Zarówno oprogramowanie profesjonalne jak i rozrywkowe można spokojnie uruchomić na leciwych procesorach.

Wydajność to odmienna kwestia, ale to nie ilość bitów o niej decyduje. Zanim pojawiły się pierwsze wielordzeniowe procesory, większość ludzi była przekonana, że następna generacja będzie 'po prostu' szybsza. Spodziewano się jeszcze szybciej taktowanego FSB i przekraczania kolejnych barier Gigaherzów. Tymczasem pojawiło się coś, co można zinterpretować jako rozwiązanie zastępcze. Skoro pojedynczy procesor nie ma dość mocy, a uczynić go jeszcze szybszym z różnych powodów się nie da to zawsze można dołożyć drugi/kolejny procesor (zobacz: Pięć rzeczy, których nie wiedzieliście o Dual-Core). I tak oto rozwiązanie znane z serwerów, stacji roboczych itp. trafiło pod strzechy. Technologia jak najbardziej słuszna, a jeśli nie działa to z winy programistów, systemu operacyjnego, sterowników, płyty głównej, masonów i cyklistów ;)

Sporo osób pewnie pamięta zabawę z Athlonami X2, przełączanie gier czy programów tylko na jeden rdzeń jako warunek ich prawidłowego uruchomienia i działania. Dual Core Optimizer wcale nie 'usprawnia' wykorzystania procesora AMD tylko naprawia błędy. Tak czy inaczej to twórcy oprogramowania, zwłaszcza tego rozrywkowego musza nauczyć się jak wykorzystać dobrodziejstwo, jakim zarówno ich, jak i posiadaczy komputerów uraczono. Niestety 2x2GHz to nie 4GHz, aż tak proste to nie jest. Teraz to programista musi rozłożyć swoje dzieło na kilka wątków tak, aby każdy rdzeń miał co robić. Pytanie tylko jak. Jeśli zrobić to dosłownie tak, jak wielokrotnie domagali się gracze, tzn. jeden rdzeń na fizykę, jeden rdzeń na AI, jeden na inne konieczne obliczenia to może się okazać, że w pewnym momencie będziemy mieli albo za mało, albo za dużo rdzeni. Przyjmując powyższy hipotetyczny podział posiadacz 2 rdzeni zostałby poinformowany, że ma za słaby komputer, aby mieć 'inteligentnych' przeciwników? Miałby do wyboru albo głupich przeciwników, albo minimalną fizykę, albo średnie jedno i drugie? Teoria może naciągana, co nie zmienia faktu, że producenci procesorów poniekąd zrzucili z siebie odpowiedzialność za wydajność swoich produktów. Wszystko wskazuje na to, że w najbliższym czasie ilość rdzeni będzie się zwiększać, czy nam się to podoba czy nie. Niedługo może się okazać, że Reverse HT, będące żartem na Prima Aprilis (ew. plotką) na większości portali o tematyce komputerowej pojawi się jeszcze raz, tym razem całkowicie realnie.

Można się również zastanowić czy wiele rdzeni jest nam tak naprawdę potrzebne. Gracze w zasadzie nie mają wyboru, wymagania gier nie staną w miejscu. Dla mniej lub bardziej profesjonalnych grafików i wszystkich innych rzeczywiście pracujących na komputerach odpowiedź wydaję się oczywista - przy takich zastosowaniach mocy obliczeniowej zawsze mogłoby być więcej. A co z resztą, co z przeciętnym Kowalskim? Czy dla kogoś, kto używa przeglądarki, programów biurowych, odtwarzacza filmów/muzyki potrzeba aż tyle mocy? Moim skromnym zdaniem nie. Przeznaczanie np. 2GHz na winampa i drugich 2GHz na Worda to bzdura, absurd i marnotrawstwo. Dwa (lub więcej) pracujące jednocześnie programy to wcale nie nowość. Takich 'cudów' dokonywali posiadacze nawet Pentium II i AMD K6. Prehistoryczny niemal Windows 3.11 pozwalał na jednoczesne uruchomienie np. Corela i edytora tekstu! Domowy z nazwy komputer z upływem czasu staje się pobierającym coraz więcej prądu grzejnikiem, kiedy wcale takowym być nie musi. Rozwiązania alternatywne, niegoniące za super osiągami jak np. VIA C7 i jego następca są wybitnie niepopularne i ciężko dostępne. Zdaje się, że dla Intela i AMD taki segment po prostu nie istnieje. Co prawda istnieją nieśmiałe próby wprowadzania procesorów o niskim poborze prądu, jednak do 20W jak w produktach VIA jeszcze daleko. Dodatkowo procesory low-power AMD mimo wszystko skierowane są na jak najwyższą wydajność, co na chwilę obecną wydaje się być w sprzeczności z ideą chłodnego i pobierającego mało prądu procesora.


Karty Graficzne


W kategorii kart graficznych też ciężko dopatrzyć się rewolucji, przynajmniej od jakiegoś czasu. Najpierw były czasy S3 Trio i ViRGE, reklamowanych przez producenta jako akceleratory 3D i jako że do złych wspomnień lepiej nie wracać, lepiej jest przemilczeć fakt ich istnienia. Potem pojawiło się 3Dfx i pierwsze Voodoo. Każdy posiadacz takiego cuda mógł z uzasadnioną dumą mówić, że ma 'akcelerator 3D'. Podczas gdy 'inni' nadal oglądali pixele na ekranie, właściciel Voodoo rozkoszował się filtrowanymi teksturami i rewelacyjną jak na tamte czasy grafiką. Najważniejszą jednak sprawą był fakt, że Voodoo = gwarantowana wydajność. Co prawda karta wymagała mocnego procesora i wyświetlała obraz tylko w rozdzielczości 640x480, niemniej jednak posiadając odpowiedni komputer nie trzeba było martwić się czy grafika w grze będzie 'haczyć'. Spora była w tym zasługa również specjalnego API GLide, które potrafiło maksymalnie wykorzystać moc karty. Podobnie było z Voodoo II.

Konkurencja w postaci ATI Rage i nVidia Riva128 nie była w stanie dorównać wydajności produktu 3Dfx. Sama w sobie Riva nie była złą kartą tyle, że kapryśna i momentami problematyczną. W zasadzie pierwszą rewolucją było pojawienie się GeForce256 i pierwszego Radeona. Sprzętowe T&L było na owe czasy rozwiązaniem nowatorskim, oferującym jakość do tej pory niespotykaną. Również wtedy chyba po raz pierwszy zaczęto debatować o ilości potoków czy TMU.

W roku 2001 pojawiły się GeForce 3 i Radeon 8500, i na tym skończyły się rewolucje. Nowatorska koncepcja programowalnych shaderów w końcu funkcjonuje do dziś i ma się dobrze. Patrząc krytycznie na rozwój kolejnych Shader Model, można się zastanawiać ile jest w tym prawdziwego rozwoju, a ile marketingu. Czy zmiany ilości instrukcji, operacji na pixelu, tekstur w jednym przejściu, precyzji koloru itp. daje podstawy do gwałtownych skoków w numeracji? Co stało na przeszkodzie aby np. po SM 1.4 następny był 1.5, 1.6, 1.7. Czy dopiero nowinki z SM 4.x i genialny w swej prostocie pomysł uniwersalnych shaderów nie zasługują według powyższej teorii na tytuł SM 2.0? W końcu mamy po raz pierwszy coś nowego, a nie tylko udoskonalanie. Tuning 'malucha' nie zrobi z niego Ferrari. Co więcej, o wyższości kolejnych Shader Model przekonywały karty po prostu szybsze, z większą ilością potoków, shaderów, szybszym taktowaniem, większą szyną i ilością pamięci. Niemal zawsze najsłabsze, a czasami również i średnie 'nowe' karty dostawały 'baty' od najmocniejszych przedstawicieli poprzedniej generacji.
Dla niezorientowanych użytkowników nie było oczywiste, że 'coś' oznaczone jako GeForce 6200 256MB nie jest wydajniejsze niż GeForce5900 128MB - w końcu więcej znaczy lepiej. Z przyczyn oczywistych nie sprawdzimy też, jaką wydajność miały GeForce 4 Ti z 512MB RAM, 16 potokami, 24 TMU, 24 PS, 8 VS i taktowaniem jak GeForce 7900. Czy byłby wolniejszy niż GF7900? Pewnie tak, pytanie tylko o ile. Tego się nigdy nie dowiemy.
Smutny natomiast jest fakt, że w chwili obecnej nawet posiadanie najnowszej i najszybszej karty nie jest gwarancją płynnej rozrywki. Nowe gry są w stanie zabić nawet najmocniejsze konfiguracje i często pomimo gigantycznych pieniędzy wydanych na sprzęt ilość klatek na sekundę spada czasami poniżej granicy płynności. Tak jest obecnie z Crysis, podobnie było z takimi grami jak F.E.A.R., Doom 3 czy FarCry.
I pewnie dlatego filtrowanie anizotropowe czy wygładzanie krawędzi nadal są dodatkowymi bajerami do poprawiania jakości grafiki a nie standardem. Przeciętny użytkownik przeciętnego komputera używa AA i AF w starszych grach, bo w nowych nie zawsze będzie w stanie. Trudno zdecydować czy taka tendencja jest smutna czy niepokojąca.

Zapewne z tego powodu niczym klątwa zza grobu powrócił pomysł z czasów Voodoo2 czyli łączenie 2 kart graficznych. Z tą drobną różnicą, że posiadanie Voodoo2 SLI nie było przymusem. Dołożenie drugiej karty w czasach Quake II pozwalało na zwiększenie rozdzielczości do 1024x768. Co prawda ilość FPS też rosła, ale i tak nie miało to znaczenia, skoro pojedyncza karta pozwalała na płynną rozgrywkę przy maksymalnych detalach. Co więcej, SLI w wydaniu 3Dfx po prostu działało. Wystarczyło połączyć karty i zaznaczyć 1 opcję w sterownikach (o ile dobrze pamiętam). Nie trzeba było specjalnej płyty głównej, właściwej 'wersji' chipsetu, i martwienia się czy dana gra ma wsparcie dla owej technologii.
Nowym wcieleniom SLI daleko do prostoty i wydajności rozwiązania 3Dfx. Zarówno SLI (obcecnie) nVidii jak i Cross-Fire wymagają specjalnych płyt i chipsetów. Decydując się na któreś z rozwiązań pozbawiamy się możliwości użycia drugiego. Jednak nie to jest najgorsze. Smutny jest fakt, jak znikomy może być efekt takiej inwestycji. Wciąż bardzo wiele zależy od sterowników, konkretnego engine gry, czy metody wykorzystania poszczególnych kart w tandemie. Wielokrotnie testy wykazywały brak jakichkolwiek korzyści z posiadania 2 kart. Wielokrotnie zysk wynosił mniej niż 30 - 40%. Połączenie dwóch średnich kart nie dawało wydajności zbliżonej do jednej karty 'high-end', nawet jeśli liczba potoków, shaderów, czy pamięci była równa w obu przypadkach.

Tym bardziej niepokojąca staje się tendencja promocji rozwiązań wyposażonych w kilka kart jako platform dla graczy. Czyżby ponownie, podobnie jak w przypadku procesorów z racji ograniczeń technologicznych i rosnących wymagań oprogramowania, stosowane było rozwiązanie zastępcze? I to takie, które niekoniecznie stanowi rozwiązanie problemu. W czasach Voodoo posiadanie 2 kart było kaprysem bogaczy pasjonatów. W czasach GeForce 6 i Radeonów x800 raczej stratą pieniędzy z racji skromnego wsparcia po stronie oprogramowania. A teraz staje się wymuszonym standardem? Patrząc na pomysły z czterema połączonymi kartami niewiadomo czy się śmiać czy płakać.


Pozostałe 'wnętrzności'


Patrząc na wszystkie inne elementy komputera też trudno dopatrzyć się rewolucji. W komunikacji między procesorem a resztą komputera FSB zostało zastąpione przez Hyper-Transport, Quad Pumping, Quck Path. Wszystko pięknie tylko nadal podstawą jest formuła mnożnik x FSB. Ponownie laik może zapytać, czemu owo FSB cały czas stoi w miejscu i pracuje w porywach z prędkością 200 MHz? (w sumie ciężko stwierdzić realne wartości przy ogromie marketingowych zabiegów i super technologii o ładnych nazwach). W końcu wszystkie DDR czy QDR to tylko teoretyczne maksymalne przepustowości. Jeśli z jakiejś przyczyny nie przesyłamy 2 'informacji' w jednym cyklu zegara technologia ta nic nam nie daje. Czy 400, 500 MHz magistrala połączona z wszystkimi nowinkami nie pozwoliłaby na jeszcze większe osiągi?
Powyższa teoria to kolejne uproszczenie, ale uświadamia poniekąd, że technologia stoi w miejscu. Nadal owym przestarzałym FSB manipulujemy podkręcając procesor czy pamięć, nadal chyba najlepiej jest, jeśli pamięć i procesor pracują synchronicznie. Wszystko to prowadzi do zamieszania, sprzecznych teorii czy porad na które łatwo natrafić w Internecie.

W kwestii samej pamięci operacyjnej rewolucji też nie widać. Z jednej strony ciągle rosną prędkości i przepustowości, z drugiej strony nie widać zbytnio wymiernych korzyści takiego rozwiązania. Oglądanie słupków i tabelek w syntetycznych benchmarkach to jedno, ale 512MB DDR2 800MHz nie będzie lepszym rozwiązaniem niż 1GB DDR 400MHz. Teoretyczny dwukrotny wzrost przepustowości nie zrekompensuje mniejszej ilości dostępnej pamięci. Aż dziwne też wydaje się, że w czasach pogoni za teoretycznymi liczbami i krzykliwymi hasłami marketingowymi nikt nie wymyślił jeszcze pamięci w trybie Quad-Channel. W końcu Dual Channel był takim odkryciem, że na każdej płycie głównej wielkimi literami pisano o obsłudze tej technologii. Producenci zdają się zbytnio nie liczyć z klientami, więc zmuszanie użytkowników do obsadzenia 4 banków pamięci jednocześnie nie powinno być problemem. Wszystko w imię wydajności - wiele rdzeni i gpu już mamy.

Rewolucji też nie widać w dziedzinie dysków twardych. Zmienia się interface, zmieniają się cyferki a rzeczywistość zbytnio się nie zmienia. Liczby liczbami, a przerzucanie plików między folderami czy partycjami nadal zdaje się trwać wieki. Nadal dyski mają talerze i mechaniczne elementy. Talerze nadal obracają się z prędkością 7200rpm i nadal spora część ma 8MB cache. Wszystko niemal jak w 2003 roku. Pomimo szumnych zapowiedzi nadal brak nie-mechanicznych dysków. A szkoda, bo w przeciwieństwie do RAM, tutaj szybkość mogłaby dać wymierne korzyści, a rosnąca pojemność aż tyle powodów do radości nie daje.


Przyszłość?


Więc jak może wyglądać komputer pod koniec 2008 roku? Jeśli karykaturalnie spojrzeć na obecne tendencje, pewnie będzie on miał cztery do ośmiu rdzeni, 32MB cache, minimum 3 karty graficzne, 2TB wciąż mechaniczny dysk i zapewne nadal 2GB RAM, o ile jakimś cudem systemy 64-bit nie staną się standardem. Wszystko to podłączone do przynajmniej 1000W zasilacza. A i tak twórcy oprogramowania zrobią graczom 'psikusa' wypuszczając grę lub benchmark udowadniające jak słaba jest powyższa konfiguracja i jak bardzo nie radzi sobie z 'jeszcze bardziej ultrarealistyczną grafiką', oczywiście w Full HD.


Ash

Komentarze

2
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    0
    ""A i tak twórcy oprogramowania zrobią graczom 'psikusa' wypuszczając grę lub benchmark udowadniające jak słaba jest powyższa konfiguracja i jak bardzo nie radzi sobie z 'jeszcze bardziej ultrarealistyczną grafiką', oczywiście w Full HD.""

    Genialne słowa :) Jak na mój gust to PC są do bani! Tzn: Wszystko fajnie i w ogóle ale teraz takie przewały idą z tymi rdzeniami i wydajnością że hej!
    • avatar
      Konto usunięte
      0
      Jest to świetnie ujęte w "Onion Movie": http://pl.youtube.com/watch?v=TRpuMYC6qyE