Karty graficzne

Wywiad z inżynierami NVIDII

Nazajutrz, po konferencji miałem możliwość spotkać się z  najważniejszymi osobami w NVIDII - między innymi Johnem Montrymem, głównym architektem projektującym chipy graficzne w NVIDII, czy też Dwightem Diericksem, odpowiadającym za sterowniki i oprogramowanie. Zadałem im kilka pytań:

benchmark: Dlaczego nie zaimplementujecie bardzo szybkiej pamięci eDRAM na chipie, jak ATI zrobiło to w XBOX 360 - moglibyście dzięki temu mieć darmowy anty-aliasing bez spadków wydajności.

John Montrym (główny architekt GPU): Zastanawialiśmy się nad tym i doszliśmy do wniosku, że bardziej efektywnie będzie wykorzystać powierzchnię chipu na elementy obliczeniowe niż na pamięć. eDRAM ma sens na konsolach, które mają ustawioną na sztywno rozdzielczość. My z kolei celujemy w użytkowników PC, którzy wykorzystują bardzo wysokie rozdzielczości. Projektując GPU zawsze zadajemy sobie pytanie o eDRAM i być może w przyszłości zmienimy podejście, ale obecnie uważamy, że lepszym podejściem jest to, które stosujemy obecnie. W GT200 mamy pamięć cache tam, gdzie ma to sens, w odpowiednich miejscach, ale są to małe ilości, aby mieć więcej miejsca na jednostki obliczeniowe.

Tony Tamasi (marketing produktów wizualnych): Jesteśmy w stanie osiągnąć niemal ten sam poziom wydajności, stosując algorytmy bezstratnej kompresji, tzw. Z-Compression. W kolejnych generacjach poprawiamy kompresję, dzięki czemu w każdej rozdzielczości jesteśmy w stanie oferować antyaliasing przy coraz mniejszym spadku wydajności.

benchmark: Dlaczego GT200 są produkowane w wymiarze technologicznym 65 nm, a nie 55 nm? Wielu użytkowników może być trochę zawiedziona tym faktem.

John Montrym: Tego typu decyzje są podejmowane na podstawie analizy wydajności i kosztów produkcji. GT200 ma bardzo dobrą efektywność i wydajność. Moglibyśmy zrobić go w 55 nm, ale wówczas koszty byłyby wyższe. W przyszłości zrobimy kości w 55 nm, ale teraz największy sens ma 65 nm.

Dzisiaj, kiedy zmniejszasz technologię produkcji, niekoniecznie oznacza to w rezultacie lepszy chip. Wchodzi tu w grę wydajność tranzystorów, pobór energii, liczba wyprodukowanych procesorów z wafla, wycieki energii oraz wiele innych czynników. Dlatego musimy zdecydować, które parametry poświęcić dla uzyskania przewagi w innych. Trzeba tutaj zachować pewien kompromis - w chwili obecnej przeskok na 55nm nie byłby dobrym rozwiązaniem.

benchmark: Kiedy wprowadzaliście GeForce, można było odnieść wrażenie, że procesor główny przestanie wpływać na prędkość generowania grafiki przez kartę graficzną. Teraz widać wyraźnie, że nawet współczesne GPU do wydajnej pracy potrzebują szybkich CPU. Czy w przyszłości faktycznie procesor główny straci na znaczeniu?

Drew Henry (główny menedżer ds. GPU): Nie mówiliśmy, że nie będziemy już potrzebować CPU. Dlatego między innymi stworzyliśmy niedawno program Optimized PC, który opiera się na przekonaniu, że przetwarzanie GPU musi iść w parze z przetwarzaniem CPU. Czterordzeniowy procesor przy konfiguracji tri-SLI jest ważny, ponieważ CPU musi być w stanie dostarczać dane odpowiednio szybko, tak aby karta graficzna była w stanie wykorzystać w pełni swoją moc. Z drugiej strony, dodawanie procesorów głównych często nie daje takich zysków, jak dodawanie procesorów graficznych. My chcemy zachować tutaj pewną równowagę.

benchmark: Czy wydajność procesora głównego wpływa na prędkość działania aplikacji CUDA?

Drew Henry: CUDA jest zaprojektowana tak, aby wycisnąć jak najwięcej mocy z komputera, zawierającego GPU. Niewątpliwie GPU jest najlepszym procesorem podczas używania wielowątkowych aplikacji CUDA, takich jak kompresja, czy kodowanie video. Jednak to, czy na danym systemie wydajność aplikacji CUDA uruchomionej na GPU będzie również zależna od mocy CPU, zależy od konkretnej aplikacji, od tego co robi i w jaki sposób została napisana.

benchmark: Czy Hybrid SLI i Hybrid Power zaczną być wspierane pod Windows XP?

Dwight Diericks (główny kierownik ds. oprogramowania): Cóż, lubimy XP i chcielibyśmy, aby działały pod tym systemem, ale Hybrid SLI i Hybrid Power to zupełnie nowe technologia, której implementacja w sterownikach zajmuje mnóstwo czasu. Zrobiliśmy to najpierw dla Visty i gdyby przeniesienie tego na XP było proste, nie byłoby problemu. Ale sterowniki graficzne dla XP tworzy się zupełnie inaczej, niż dla Visty. Podobnie jest zresztą z Linuxem.

benchmark: Z Linuxem? Czy to znaczy, że możemy spodziewać się w niedalekiej przyszłości sterowników Hybrid SLI i Hybrid Power pod ten system?

Dwight Diericks: Implementacja Hybrid Power w sterownikach dla Visty wiązała się z całym mnóstwem różnych komplikacji. Nie wiem, jak wyglądałoby to pod Linuxem.

benchmark: Jak widzicie rozwój Hybrid Power w przyszłości - czy ta technologia odniesie sukces?

Dwight: Można na to spojrzeć tak: już teraz mamy chip GT200, który w trybie idle wymaga jedynie 25W. W przyszłości technologie oszczędności energii będą dopracowywane i być może w końcu uda się stworzyć chip, który pod niskim obciążeniem będzie zużywał jedynie 1W. W pewnym sensie można więc myśleć o o Hybrid Power, jako o rozwiązaniu tymczasowym.

Inżynierom nVidii dziękujemy za wywiad i Was drodzy czytelnicy zapraszam do naszej recenzji GeForce GTX 280, którą na wskroś przetetestował Seba. Światowa premiera karty dziś o godzinie 15.oo

Komentarze

0
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.

    Nie dodano jeszcze komentarzy. Bądź pierwszy!