Karty graficzne

ATI wróży: hologramy, GPGPU i karty z DirectX 11

przeczytasz w 1 min.

ATI twierdzi, że karty obsługujące nowe API (DirectX 11) trafią na rynek w przyszłym roku. Koncern informuje ponadto, że zwiększy się popularność układów typu GPGPU.

ATI wyjawiło na targach Ceatec w Japonii, że karty graficzne obsługujące DirectX 11 powinny trafić na rynek w 2009 r. Korporacja twierdzi ponadto, że w przyszłym roku układy GPGPU zyskają dużą popularność, a chipy wspierające DirectX 11 staną się ich podstawą. Przypomnijmy, że GPGPU (General-Purpose Computing on Graphics Processing Units) to układy graficzne, które można wykorzystywać nie tylko do obliczeń związanych z grafiką, ale także w innych zastosowaniach (np. prognozowanie pogody, symulacje inżynierskie, diagnostyka medyczna).

Firma pokusiła się nawet, by przybliżyć oczekiwania konsumentów w roku 2009. Według niej istotnymi zmianami na rynku GPU będzie produkowanie tych układów w procesie technologicznym 40 nanometrów, jak również wykorzystywanie – powszechne – kości pamięci GDDR5. Zaowocuje to znacznym zwiększeniem wydajności, co z kolei powinno pozwolić developerom na tworzenie gier oferujących jeszcze bardziej wyrafinowane efekty wizualne.

ATI przewiduje także, że GPGPU będą zawdzięczać swoją popularność – przynajmniej na początku – możliwościom DirectX 11 oraz OpenCL. Zdaniem przedstawiciela ATI, użytkownicy zaczną w końcu wykorzystywać moc drzemiącą w kartach graficznych w typowych aplikacjach. GPU będą odgrywać jeszcze ważniejszą rolę w momencie premiery systemu Windows 7, który będzie miał zintegrowane biblioteki graficzne DirectX 11. Warto tu dodać, że DirectX 11 ma zostać udostępniony również posiadaczom Visty.

Kończąc swoje wystąpienie przedstawiciel ATI wyjawił, że w przyszłym roku czekają na nas również telewizory pracujące w rozdzielczościach wyższych niż 1920 x 1080 pikseli, które nazywane są „cyfrowymi ścianami”. Multidotykowe ekrany także powinny odegrać ważną rolę w 2009 r., początkowo za sprawą urządzeń wykorzystujących rozwiązania z Microsoft Surface. Dodatkowo Richard Bergman z AMD, który jest głównym menedżerem w oddziale zajmującym się kartami graficznymi, powiedział że w 2018 r. nie będzie się fatygował na Ceatec 2018, bo zamiast niego zjawi się trójwymiarowy hologram. Czy hologramy rzeczywiście będą dostępne w 2018 r.?

Źródło: X-bit labs.com

Komentarze

11
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    rszuba
    0
    I dlatego tak ciężko kupić highendowy sprzęt... Cały czas wizja tego, że za kilka miesięcy będzie wart ~50% ceny...
    • avatar
      Konto usunięte
      0
      ta
      • avatar
        Konto usunięte
        0
        hmm a ja czekam z nowym kompem i czekma tylko na co ehh moz e te karty graficzne z kilkoma gpu beda jakos dostene max w nastepne wakacje to bedzie calkime dobry komp dla mnie. ale zeby im sie udalo plis plis :P
        • avatar
          maker
          0
          krok 1. Nizszy proces technologiczny = mniejszy pobor pradu = mniejsze wydzielanie ciepla = wiecej upakowanym tranzystorow na tej samej powierzchni
          krok 2. Podwojenie ilosci tranzystorow = wieksza wydajnosc = wiekszy pobor pradu = wieksze wydzielanie ciepla = wydajne GPU
          krok 3. wydajne GPU + nizszy proces technologiczny = wieksza mozliwosc podkrecania przez producentow = jeszcze wiekszy pobor mocy = wieksze wydzielanie ciepla
          krok 4. Ooo... nowe wydajne GPU w drodze = wieksze mozliwosci w grach (grafika, efekty, fizyka itd...) = wieksze wymagania (zalezy od producenta of course ;))
          krok 5. Oczekiwania konsumenta czy beda w koncy niskie rachunki za prad??? Hybrid Power moze??? Wszystko pieknie ale to da wieksze korzysci laptopach niz w PC-tach (podczas grania i tak komputer zamieni sie w piekarnik a licznik pradu bedzie sprintowal)
          Wniosek:
          Niedlugo problemem nie bedzie kupno sprzetu, lecz jego utrzymanie ;-)
          • avatar
            Konto usunięte
            0
            No właśnie. W piwnicy mam celeronka 300mhz z przed nie calych 10 lat, i 200W zasilacz (jesli dobrze pamietam - w zupelnosci wystarczyl do ekstremalnego windowania procesorka;-)). 5-6 lat temu wystarczył 350W zasilacz, dzisiaj... conajmniej 550W. Do tego wezmy pod uwage fakt, ze monitory lcd zdecydowanie tanieja, i przecietnego szaraczka stac na 22 cale, ktory pobiera 2 razy wiecej pradu niz monitor na ktory bylo stac takiego czlowieka kilka lat temu. Niby polepszaja proces technologiczny, i oczywiscie, przy zachowaniu tych samych parametrow taktowania itp, gpu pobiera zdecydowanie mniej pradu, jednak oczywiscie zwieksza to rowniez potencjal procesora. Wiec czemu by z tego nie skorzystac. Do tego wezmy pod uwage fakt, ze koszt energii w polsce nieustannie sie zwieksza. Za 5 lat, kiedy przecietny komp bedzie wyposazony w 1000W zasilacz, a normalnym monitorem bedzie 25 cali, prad zdrozeje jeszcze o kilkanascie-kilkadziesiat procent mozemy spodziewac sie naprawde powaznych problemow z utrzymaniem takiego komputerka. Albo dojdzie do jakiejs rewolucji, albo najwiekszym mankamentem bedzie nie "za ile go kupisz", tylko "ile za niego placisz":-P
            • avatar
              Konto usunięte
              0
              Poczatek jakoś sobie wyobrazam, ale koncówka arta brzmi jak dla mnie trochę jak z filmu :) futurystycznie :D
              Szkoda, ze nie urodziłem się sto lat puźniej... Direct 30 OpenBr i zamiast kompa specialny pokój do symulacji gier :D

              ATI ostro się bierze do roboty, kurcze tylko czekac na windows 7 i odpalać gierki na najnowszych katrach ATI z D11
              • avatar
                danieloslaw1
                0
                Coś mi sie zdaje że Nvidia bedzie miała pierwsza d11 i 40nm nigdy nie lubiłem radka no ale może coś pokarze. Ten hologram zapowiada sie bardzo dobrze!
                • avatar
                  Gothar
                  0
                  A czy dla was nazwa układów typu "GPGPU" to nie odpowiednik programowego CUDA? Ich wspólnym celem jest wykorzystywanie układu GPU nie tylko do obliczeń grafiki, ale także reszty która sie zajmuje CPU.
                  Moim zdaniem wszytko dąży do ujednolicenia GPU z CPU, który stanie się tłem w "blaszaku" Po co mieć dwóch "zżeraczy" prądu jak można mieć wszystko w jednym.
                  • avatar
                    Konto usunięte
                    0
                    taaa
                    a NVIDIA w swoich ukladach ma mozliwosc wykorzystywania ich nie tylko do gierek juz od GeForceow serii 8 :)
                    Mowie oczywiscie o srodowisku CUDA i staje sie glownie popularne nie dzieki temu, ze ATI wlasnie sobie wymyslilo ze tak bedzie, ale dzieki temu ze NVIDIA pompuje ciezkie miliony by ta idea stala sie prawda :)

                    I warto tez wspomniec ze Nowe oprogramowanie Adobe (CS4) juz korzysta pelna para z rozwiazania CUDA... :) i uwierzcie mi, czasami roznica jest naprawde duza i daje to mega kopa :)
                    • avatar
                      rahl_r
                      0
                      szatras - względnie dobry LCD 22-24" pobiera około 50-80W, pierwsze LCD 15-17" pobierały 50-80W więc jak dla mnie nie ma różnicy. Średnia konfiguracja oparta na Core2duo(lub nawet Athlon EE + grafika(np 4670) + dyski i przyległości to pobór prądu na poziomie 120-150W (szczytowy) do tego zasilacze mają obecnie znacznie wyższą sprawność(ta twoja stara 200W ma w najlepszym przypadku 50-60%). Mogę się wręcz założyć że ten "celeronek" o którym piszesz bierze więcej prądu niż taki nowoczesny zestaw. Jeśli porównać możliwości - różnica kosmiczna.
                      Do tego weź pod uwagę rozwiązania takie jak Atom (i podobne), które przy mają znacznie więcej możliwości niż "celeronek" a biorą dziesięć razy mniej energii.
                      Więc proszę cię nie wypisuj bajek - to że branża jest obecnie znacznie bardziej rozwiniętą(na wzór tej samochodowej) - są zestawy które biorą nie znaczy wcale, że wszystko schodzi na psy.
                      To tak jakby posiadacz Forda T perorował na upadek branży samochodowej za przykład porównawczy podając Bugatti Veyron - pisząc, że obecne samochody są strasznie kosztowne w eksploatacji.

                      Każdy ma obecnie większy wybór - może kupić kompa z trzema monitorami 30" i zasilaczem 1200W, a może się także zadowolić Atomem i 19" LCD - dla każdego wg potrzeb i możliwości.
                      • avatar
                        Konto usunięte
                        0
                        AMD wraz z ATI są daleko przed nVidia Szkoda że AMD nie produkuje tak wydajnych procesorów :/ powinni się za nie wziąć bo Intel ich z błotem zmiesza :/ Swoją drogą ciekawe jaką będą maksymalną rozdzielczość oferować nowe monitory?? i ile będą żreć prądu bo ja osobiście mam w nosie gigantyczną rozdzielczość jeśli taki monitor będzie potrzebował własnej elektrowni :/