Karty graficzne

Wirtualizacja układu graficznego

opublikowano przez Marcin Bienkowski w dniu 2012-06-19

Bardzo ciekawie zapowiadają się również ogłoszone na GTC 2012 możliwości wirtualizacyjne nowego układu Nvidia Kepler. Jak się okazuje jest to układ, który jako pierwszy na świecie GPU przewidziany został do pracy na serwerach w środowisku wirtualnym i jednocześnie istnieje możliwość podziału jego możliwości obliczeniowych w środowisku chmurowym. Innymi słowy jedna karta obliczeniowo-graficzna oparta na Keplerze może udostępniać swoje możliwości wielu rozproszonym po całym świecie stacjom klienckim – w tym smartfonom i tabletom.

Karty tego typu znajdą się w dużych, firmowych centrach danych i nie ma tu ograniczeń co do liczby współpracujących w jednym serwerze ze sobą kart tego typu. Innymi słowy jest to rozwiązanie w pełni skalowalne i bez problemu może być wykorzystywane w systemach klasy korporacyjnej, obsługującej jednocześnie dziesiątki tysięcy wirtualnych użytkowników. Technologia wirtualizacyjna zaimplementowana w układach Kepler nosi nazwę Nvidia VGX i znana była do tej pory pod kodową nazwą Monterey.

GPU Technology Conference 2012

GPU Technology Conference 2012

GPU Technology Conference 2012: Wirtualizacyjne możliwości architektury Kepler prezentowane przez Jen-Hsun Huanga.
Wirtualizacyjne możliwości architektury Kepler prezentowane przez Jen-Hsun Huanga.

 

GPU Technology Conference 2012: Karta obliczeniowo-graficzna zgodna z technologią Nvidia VGX
Karta obliczeniowo-graficzna zgodna z technologią Nvidia VGX

 

GPU Technology Conference 2012

GPU Technology Conference 2012: System wirtualizacji wspomagany jest przez sprzętowe elementy współpracujące z programowo realizowanym na wirtualnej maszynie zarządcą – tzw. hypervisorem
System wirtualizacji wspomagany jest przez sprzętowe elementy współpracujące z programowo realizowanym na wirtualnej maszynie zarządcą – tzw. hypervisorem

 

GPU Technology Conference 2012: Platforma Nvidia VGX
Platforma Nvidia VGX

Istotnym elementem wirtualizacji jest technologia ultraszybkiego strumieniowania – Low-Latency Remote Display, która pozwala w maksymalnym stopniu wyeliminować opóźnienia w odświeżaniu wysyłanego przez chmurę do stacji klienckiej obrazu. Dzięki niej mamy wrażenie, że znajdujemy się tuż obok komputera generującego do naszego terminala obraz. Technologia ta polega przede wszystkim na przesyłaniu jedynie tych punktów obrazu, które uległy zmianie i koordynat współrzędnych jak należy przemieścić fragmenty obrazu. Dane te są dodatkowo kompresowane. Unika się w ten sposób przesyłania ogromnych ilości danych, jakie miałoby miejsce przy przesyłaniu obrazu klatka po klatce.

GPU Technology Conference 2012: Na prezentacji o wykorzystaniu technologi wirtualizacji i pracy w chmurze mówił m.in. Sumit Dhawan, wiceprezes i dyrektor generalny w firmie Citrix
Na prezentacji o wykorzystaniu technologi wirtualizacji i pracy w chmurze mówił m.in. Sumit Dhawan, wiceprezes i dyrektor generalny w firmie Citrix

 

GPU Technology Conference 2012

GPU Technology Conference 2012
Pokaz możliwości technologii wirtualizacji karty graficznej. Obraz z aplikacji CAD wyświetlany jest na tablecie. Do pracy w środowisku wirtualnym (wirtualizowane jest środowisko na serwerze) wystarczy odpowiednia wtyczka do przeglądarki WWW. Na pierwszej ilustracji widać, że iPad ma do dyspozycji 1536 rdzeni CUDA.

 

Wirtualizację środowiska graficznego można przygotować, zarówno dla aplikacji profesjonalnych – np. systemów CAD, jak i gier. Systemem chmurowym dla gier jest Nvidia GeForce GRID. 

GPU Technology Conference 2012

GPU Technology Conference 2012

GPU Technology Conference 2012

GPU Technology Conference 2012

GPU Technology Conference 2012

GPU Technology Conference 2012
Działanie Nvidia GeForce GRID zobaczyć można było na przykładzie systemu gier na żądanie opracowanego przez firmę Gaikai.

 

GPU Technology Conference 2012
Firmy, które opracowały środowiska korzystające z możliwości wirtualizacji VGX.

Nie tylko Kepler

Oczywiście premiera Keplera ani związanych z nim technologii nie były jedynymi poruszanymi na konferencji GTC 2012 tematami. Bardzo ciekawą sesją był na przykład zorganizowany trzeciego dnia keynote prowadzony przez Roberta Boehme i Wes Falera. W prezentacji tej wymienieni naukowcy pokazali proces konstrukcyjny i próby związane z opracowywaniem księżycowego łazika.

Wszystkie obliczenia związane z projektem oraz opracowywaniem autonomicznego oprogramowania, a także samo sterowanie księżycowym robotem odbywało się z wykorzystaniem akceleratorów obliczeniowych Tesla poprzedniej generacji.

GPU Technology Conference 2012

GPU Technology Conference 2012

GPU Technology Conference 2012
Program księżycowego robota, który wspomagany był obliczeniami prowadzonymi na akceleratorach Tesla. 

 

Również ciekawe produkty znaleźć można było na towarzyszącej konferencji GPU Technology Conference 2012 wystawie. Zobaczyć tam można było nie tylko serwery obliczeniowe wyposażone w szereg kart Tesla czy moduły obliczeniowe do serwerów blade, ale również trójwymiarowe wyświetlacze niewymagające okularów 3D czy montowane w pojazdach i samochodach nowoczesne systemy nawigacyjno-komputerowe oparte na układach z serii Nvidia Tegra.

GPU Technology Conference 2012

GPU Technology Conference 2012
Moduł obliczeniowy do serwera blade opracowany przez firmę Bullx

 

GPU Technology Conference 2012

GPU Technology Conference 2012 

GPU Technology Conference 2012
Systemy informacji kierowcy bazujące na układach Tegra.

 

GPU Technology Conference 2012

GPU Technology Conference 2012
System wyświetlacza 3D niewymagający okularów firmy Raytrix.

Procesory x86 - architektura współczesnych układów
Procesory wielordzeniowe - co szykuje przyszłość? Intel Thunderbolt - transfer danych na całego Procesory x86 - architektura współczesnych układów

 

marketplace

Komentarze

10
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    hmmm...

    A gdzie... AMD ? ;)

    I po drugie, w prezentacji różnic pomiędzy Fermi a Kepler jest byk jak z Ziemi do Księżyca :D

    Fermi w pierwszej wersji (generacji) miał w SM-ie 32 rdzenie CUDA, natomiast w drugiej wersji (od 460 w górę, czyli 560, 570 itd.) posiada w jednym SM-ie 48 rdzeni CUDA. Przecież Fermi uległ całkowitej przebudowie po wersji 470 która to po prostu się przegrzewała.

    Panowie redaktorzy, zrozumiałbym wasze braki w tym temacie, gdyby nie fakt, że sami o tym pisaliście ;)

    tu:
    http://www.benchmark.pl/testy_i_recenzje/GeForce_GTX_460_-_Fermi_zrobiona_jak_trzeba.-3129/strona/10386.html

    Cóż, "skleroza" - to "cholera" współczesnego wieku ;)
    Zaloguj się
  • avatar
    Morgi po przeczytaniu tego newsa miał pewnie ostry wzwód ;]
  • avatar
    Morgi to dzieciak z Onetu ale tam go wykopali to tu przyszedł pierniczyć 3po3 jego całe życie to NV i tyle co dzień sie dzieciak chyba masturbuje nad swoją kartą GF :)
    Luknij z resztą na jego profil dzieciak z lekko zachwiana psychiką po jego wypowiedziach max 14 lat
  • avatar
    e tam i tak najlepsze AMD cena/wydajność/pobór prądu :V
  • avatar
    to jest przyszłość. Średnio wydajny tablet z kartą graficzną GTX680 (oczywiście zanim to będzie rzeczywistość 680'siątka nie będzie już zbyt mocna). Tylko wiecie, że nam przyjdzie za to zapłacić. Płacenie abonamentu za wydajność bardziej się im opłaca, niż sprzedać raz i czekać aż łaskawie zachce Ci się kupić nowy sprzęt.
  • avatar
    Trochę się nie dziwię że nVIDIA sobie dobrze radzi i prowadzi zaawansowane badania. AMD jest w tyle bo nVIDIA w dobrym momencie wykupiła ważniejsze firmy zajmujące się elektroniką, to też jest większa. Mam wrażenie że AMD jest dosyć zamkniętą firmą, mało otwartą na możliwości i nowe technologie, a przynajmniej boją się wdrażać coś nowego bo a nuż nie wypali i kasa przepadnie. N może sobie na to w pewnym stopniu pozwolić. Czarno to widzę dla czerwonych, jeżeli się nie wezmą za robotę. A szkoda by było. Bo bez konkurencji będziemy się cofać w czasie.
  • avatar
    Nie narzekać - cieszyć sie.
    Dzień Sądu jest blisko !!