Karty graficzne

Nvidia Tesla - najszybszy procesor na świecie

opublikowano przez Paweł Mnichowski w dniu 2011-05-17

Procesor graficzny NVIDIA Tesla M2090 osiągnął rekordową wydajność w jednym z głównych testów wydajności w zastosowaniach naukowych. Stał się tym samym najszybszym układem do obliczeń równoległych na świecie przeznaczonym do obliczeń wielkoskalowych.

TESLA M2090

Układ został wyposażony w 512 rdzeni przetwarzania równoległego architektury CUDA i osiąga maksymalną wydajność 655 gigaflopów w operacjach zmiennoprzecinkowych z podwójną precyzją.

Cztery procesory graficzne Tesla M0290 współpracujące z czterema procesorami centralnymi osiągnęły rekordową wydajność w aplikacji AMBER 11 - jednym z najpopularniejszych narzędzi do symulacji biomolekuł - generując 69 nanosekund symulacji na dzień.

Nowy układ sprawdzi się doskonale w szerokiej gamie programów do obliczeń wielkoskalowych akcelerowanych przez procesor graficzny. Wśród nich znajdą się m.in. aplikacje do obliczeń dynamiki molekularnej, NAMD i GROMACS; aplikacje CAD, Anys Mechanical, Altair Acusolve i Simulia Abaqus; aplikacje geonaukowe, WRF, HOMME i ASUCA; aplikacje dla przemysłu paliwowego, Paradigm Voxelgeo i Schlumberger Petrel, a także inne kluczowe narzędzia, jak MATLAB, GADGET2 i GPU-BLAST.

Więcej informacji na temat procesora graficznego Tesla M2090 można znaleźć pod tym adresem.

Więcej o procesorach graficznych:

Źródło: NVIDIA

marketplace

Komentarze

67
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    "generując 69 nanosekund symulacji na dzień. "


    A może jakieś wytłumaczenie ile to jest?? Jakieś przyrównanie albo przykład, bo są to jakieś wartości z dupy, nic z tego newsa nie wynika.
    Zaloguj się
  • avatar
    Nvidia najszybsza. Czemu mnie to nie dziwi?
    Zaloguj się
    -1
  • avatar
    "69 nanosekund symulacji na dzień. "

    Wow co cala symulacja syntezy tej biomolekuly musi trwac lata, nawet jak zaprzegaja do tego setki tych kart.

    W takim laboratorium to sie mozna obijac- wrzucasz do symulatora i jedziesz na urlop ;)
    Zaloguj się
  • avatar
    GADGET2 to nie jest jakieś "kluczowe narzędzie", tylko kod (program) do symulacji kosmologicznych (czyli coś jak ten AMBER, tylko w innej dziedzinie).
  • avatar
    Yyyyy, ile osób takie rzeczy robi, ilu osobom się to przyda? Wg mnie dość mało znaczące zwycięstwo NV, no ale może przyniesie im to sporo kasy :)
    Zaloguj się
  • avatar
    Tesla jest wysoce wyspecjalizowanym procesorem do profesjonalnych obliczeń. Na polu tych zastosowań jest najszybszy. Nie ma tu mowy o zastosowaniach domowych;) Z resztą te karty kosztują wielokrotnie więcej niż domowe odpowiedniki i kompletnie się w tym sensie nie opłacają. Nikt na teslach nie robi popularnych benchmarków, można dodać, że najszybszy klaster świata jest oparty na tych układach... Dla nas, zwykłych zjadaczy chleba, to tylko ciekawostka, kasę wydają instytuty naukowe i agencje rządowe. Pozdrawiam!
  • avatar
    Where is radeon???
  • avatar
    Where is radeon???
    -Radeon in ass
    Zaloguj się
  • avatar
    Radeon 6970 wyciąga 675 GFLOPs w podwójnej precyzji.
    Zaloguj się
  • avatar
    Ta karta (nie)graficzna kosztuje 16359,- złociszy i jest Wam całkowicie zbędna. To jest zwykły koprocesor do pewnego typu obliczeń i nic więcej, ot na przykład bardzo szybko sumuje wektory.
    Cały ten zgiełk to reklama Nvidii mająca podniecić fanbojostwo i robić wodę z mózgu zwykłym zjadaczom chleba.
  • avatar
    temperatury tej karty to tylko 420 C lepiej nie podkręcać bo padnie jak GTX 590 buhahaha
    Zaloguj się
  • avatar
    Ile klatek w Quake?
  • avatar
    Jakieś porównanie do ATI FireGL? i do zwykłych Radeonów HD6xxx?
    Zaloguj się
  • avatar
    Ok, fajnie. Ale ktoś mi powie jak to z Teslą jest? Czy układ Tesli to nie to samo co GTX? Bo coś mi się zdaje że to takie same CUDA tylko w GTX sporo spraw powyłączanych. Mniejsza precyzja, brak ECC, pewnie ograniczone transfery wewnętrzne i może wyłączone jakieś specjalistyczne jednostki czy elementy bloków CUDA. To nie przypadkiem taki sam kawałek krzemu z lepszym zasilaniem, wspomnainym ECC i oczywiście dedykowanym firmware oraz software? Niech wypowie się ktoś rzeczowo i konkretnie bo nurtuje mnie ta sprawa. I bez tekstów że przeciez kosztuje krocie więcej...

    Pozdrawiam
    Zaloguj się
  • avatar
    Odnosnie VooDoo to jest akurat dobry przyklad bo produkujaca go firma 3Dfx zostala niegdys wykupiona przez Nvidie, a to oni byli prekursorami kart z wieloma rdzeniami. Mozna zatem powiedziec, iz CUDA mimo iz o wiele bardziej nowoczesna to jednak czerpir garsciami z VooDoo czy tego bys chcial czy nie. Cholera, chyba zburzylem Twoj caly dzieciecy swiat...teraz pewnie nie bedziesz mogl spac po nocach...
    Zaloguj się
  • avatar
    zerosouL

    Jesteś faktycznie jakiś toporny na argumenty - i piszę to jako ktoś kto z boku czyta waszą dyskusję (twoją z maroo).

    Po pierwsze.
    Nikt tutaj nic nowego nie wymyśla, nikt tutaj nie tworzy teorii podpierając się zarówno materiałami prasowymi producentów, jak i specyfikacjami powyższych produktów. Ba. Powiem ci więcej. Sami producent (nVidia) oficjalnie przyznaje, że obydwie serie kart są wykonane w tej samej architekturze na tych samych drzeniach, jedynie są sprzętowo blokowane (uszkadzane) dla wersji SOHO.

    Po drugie.
    Czerpiesz jakieś plotkarskie zaleciałości o wykupie 3DFX prze nVidię , co było bardzo dawno temu. I płodzisz publicznie właśnie typowe teorie, że nVidia "czerpie garciami" z cudownych technologii 3DFX.
    Oczywiście nie podając żadnego konkretnego przykładu powyższego czerpania garściami ani jakiegokolwiek innego przykładu współczesnego wykorzystania starej technologii firmy 3DFX.
  • avatar
    --- dalsza część bo nie chce wkuścić w całości ;) ---

    No ale ty sypiesz konkretami, natomiast twoi rozmówcy przeczytali jakieś bzdury z sieci i dopisują teorie LOL.

    Wiesz, nie chcę cię martwić - ale w swoich analizach i teoriach - jesteś odosobniony. Zastanów się dlaczego ;)

    Musisz zakładać, że skoro cały świat (na podstawie specyfikacji i materiałów prosto od producenta/ów podzespołów, czyli zarówno informacji technicznych jak i narzędzi developerskich, oraz na podstawie oficjalnych stanowisk producentów) stwierdza, pewne fakt - to są one faktami, czy ci się to podoba czy nie ;)

    Ps. A może nVidia czerpie jeszcze z C64? ;)
  • avatar
    Czytam niektóre kometarze...zbiera mi się na śmiech
    jak można porównywać kartę to zadań naukowych
    z kartą graficzną do gier? To są dwa inne światy
    Luzie ogarnijcie się....po znów się robi wojna fanboyów ;)
    Zaloguj się
  • avatar
    Ry23pdg

    Hmmm. Co wy macie z tym ogarnianiem się ?
    Nikt tutaj nie chodzi roznegliżowany by się ogarniać - no chyba, że ty, to przepraszam ;)

    A tak poważnie :)

    Popatrz sobie na specyfikację (tak jak ci pisze Promilus) układu Tesli a dokładnie na jego nazwę kodową. Tam masz odpowiedź na pytanie co to jest i czy to jest to samo co jest w serii GTX ;)

    A co do blokad. Sama nVidia mówi o nich oficjalnie. A czy da się je usunąć ? W niektórych modelach Quadro dawało się usunąć blokadę programowo, w Tesli jest blokada sprzętowa (usunięte połączenia) - więc odpowiedź także już masz ;)

    To tyle.

    I na koniec. Żadna wojna fan boyów. Po prostu fakty, nic więcej ;)
  • avatar
    69 ns to bardzo dużo w porównaniu do obecnych wartości osiąganych w symulacjach pełnoatomowych w Amberze. Cała kwestia opiera się o to, jak duże są badane układy. Ale w rzeczywistości w Amberze używa się pojedynczej precyzji, a do niej wystarczą normalne karty do gier ;) taki GTX580 jest wprost idealny, a dużo tańszy ;)