Karty graficzne

Nvidia: zaawansowane nowości na konferencji IBC 2011

przeczytasz w 1 min.

Nvidia na konferencji IBC 2011 zaprezentuje wiele ciekawych nowości, do których należą nowe interfejsy dotykowe, interaktywne programy graficzne dla programów telewizyjnych, symulacje interaktywnych systemów cząsteczek dla produkcji filmowych oraz nowe rozwiązania do edytowania materiałów wideo z wykorzystaniem procesorów graficznych.

Trzeba przyznać, że popularność wykonywania obliczeń na procesorach graficznych stale rośnie, a w związku z tym programiści przepisują całe kody aplikacji, aby zyskać dostęp do mocy oferowanej przez układy graficzne, które są wydajniejsze od tradycyjnych procesorów. W związku z tymi zagadnieniami, odbędzie się konferencja IBC (International Broadcasters Convention) 2011 w Amsterdamie. Firma Nvidia planuje zaprezentować na niej szereg innowacyjnych rozwiązań, które ułatwią pracę przyszłym programistom.

sposób wykorzystania technologii Quadro Digital Video Pipelinesposób wykorzystania technologii Quadro Digital Video Pipeline

Sposoby wykorzystania technologii Quadro Digital Video Pipeline

Jedną z nowości będą aplikacje i procesy robocze, obrazujące moc z wykorzystaniem układów graficznych. Wśród nich znajdują się między innymi nowe rozwiązania do edycji materiałów filmowych i produkcji programów na żywo w stereoskopowym trójwymiarze. Oprócz tego będzie można zobaczyć rozwiązania do tworzenia efektów graficznych, edytowania, składania i produkcji stereoskopowej, kodowania i dekodowania programów telewizyjnych. Rozwiązania te należą do ponad dwudziestu partnerów firmy z Santa Clara i wykorzystują moc profesjonalnych układów graficznych NVIDIA Quadro bazujących na architekturze Fermi.

sposób wykorzystania technologii Quadro Digital Video Pipelinesposób wykorzystania technologii Quadro Digital Video Pipeline
Sposoby wykorzystania technologii Quadro Digital Video Pipeline
 

Kolejną z prezentowanych nowości będzie dotyczyć technologii Quadro Digital Video Pipeline, która zapewnia szybki dostęp do źródeł obrazu oraz możliwość analizowania i modyfikowania tych źródeł. Tym razem jednak Nvidia wypracowała sposób na wprowadzenie tej technologii w innych kartach wejściowych i wyjściowych z interfejsem SDI. Dzięki temu rozwiązaniu możliwości potoku cyfrowego wideo zostaną rozbudowane o nowe rozwiązania i znajdą się niebawem w ofercie innych producentów. Nvidia nie zdradza więcej informacji na ten temat, bowiem szerzej zostaną one zaprezentowane 9 września na konferencji IBC.

Więcej o produktach firmy Nvidia:

Źródło: inf. prasowa, Nvidia

Komentarze

73
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    0
    nvidia to potęga w gpgpu. mnie to nie dziwi gdyż nvndia produkuje sprzęt dla profesjonalistów. dzięki nvidii rozwija się nauka, powstają wynalazki i mamy lepszy świat. ati służy jedynie do grania przy czym takie dzieci jak johnsteppard, mielcu3 czy renholer1987 tracą wzrok.

    tylko nvidia może zapewnić rozwój cywilizacji zapewniając niezbędną moc obliczeniową dla naukowców.

    • avatar
      pomidor
      0
      Doszliśmy do etapu że geforce rozwiąże każdy problem
      • avatar
        Konto usunięte
        0
        Jestem mocno związany z mediami (m.in. emisją, produkcją, zapleczem IT) i powiem szczerze, że te rozwiązania nie robią na mnie żadnego wrażenia.
        • avatar
          Konto usunięte
          0
          Nvidia to potęga
          • avatar
            gehaes
            0
            niestety rozwój softu jest w uliczce tak wąskiej że nie ma jak zawrócić. jak do przodu to tylko w zaprzęgu konnym z rejestracją x86. a że można by samochodem? może i można ale jak wspomniałem nie ma możliwości przesiadki
            • avatar
              lwses
              0
              burakom cukier sie podniósł hahahahahahahah
              • avatar
                Konto usunięte
                0
                @GTX460 masz racje :D .
                A takie dzieci jak johnsheppard i te inne nie odpisza teraz bo sa w szkole jemioły :D
                • avatar
                  kok88
                  0
                  Stereoskopowy trójwymiar & masło maślane = pleonazm.
                  • avatar
                    wstrzasmen
                    0
                    ten news nie ma dzieci nic wspolnego z waszymi kartami do grania - NVidia juz od dawna promuje GPU Super Computing czyli wykorzystanie GPU jako jednostek centralnych w rozproszonych superkomputerach. Glownym argumentem za jest znaczne zwiekszenie mocy obliczeniowej przy mniejszym niz dla CPU zapotrzebowaniu na energie zasilania.

                    Gdzies widzialem prezentacje na ten temat gdzie NVidia chwali sie ze zbuduje super komputer skali exoflopowej.

                    To jest nowy subiektywnie biznes NVidii ktora musi na czyms zarabaic i sie rozwijac - a biorac pod uwage zamrozenie rozwoju GPU na rynku konsumenckim ze wzgledu na brak potrzeby szybszych GPU (brak gier o takich potrzebach ze wzgledu na zachamowanie rozwoju softwaru przez rynek konsol) NVidia coraz bardziej skupia sie na wejsciu na rynek super komputerow.
                    • avatar
                      Konto usunięte
                      0
                      Trzymam kciuki za nowe rozwiązania czego konkurencja hmmm raczej bez konkurencji w tym wymiarze :)
                      • avatar
                        NextGen1987
                        0
                        Ewidentnie ''olali'' GeForce, i skupili się na produktach (kartach) Quadro i Tegra, szkoda, bo kiedyś nVidia była potęgą głównie GeForce GPU ;-/
                        • avatar
                          MarJano
                          0
                          hahaha ale sobie jedziecie jakby sie dwoje dzieci klocilo a ja mam lepszy rower a nie bo ja mam lepszy i szybciejszy ..... hehe .. a prawda taka ze i Ati i Nvidia maja fajne zabawki
                          • avatar
                            Marucins
                            0
                            To jakiś JOKE?
                            Te obrazki co nVidia promuje to chyba żart. Dotychczas nie było z tym problemów. Wystarczył odpowiedni soft np. BoinxTV (tylko na OSX) potrafi czynić cuda i nie wykorzystuje potęgi jak to opisuje nVidia GPU.

                            Więc niech nie gadają głupot tylko wydadzą nowe karty! AMD już przedstawiła na papierze co i jak a zieloni... jak zawsze na końcu.
                            • avatar
                              Konto usunięte
                              0
                              ja tam od zawsze mam karty od obu firm i mam gdzies jakie logo jest na pudelku. kupuje to co w danym momencie ma najlepszy stosunek ceny do wydajnosci i np teraz posiadam karte nvidii a dwie poprzednie mialem ati a w przypadku procka obecnie mam drugiego z rzedu intela a dwa poprzednie procki mialem amd. wojny fanboyow od zawsze sa dla mnie bezcelowa przepychanka, bo kazda firma ma swoje wady i zalety w kontekscie danych produktow w danym momencie i jesli ktos jest zapatrzony tylko w jednym kierunku to duzo traci. pewnie zostane zjechany przez fanatykow ale nie obchodzi mnie to :)
                              • avatar
                                mayster23
                                0
                                Zgadzam się z kolegą wyżej,dla mnie tez nie ma znaczenia czy karte bede mial AMD czy NV,nie faworyzuje zadnej z firm,posiadalem zarówno używane jak i nowe komponenty od obu firm i nigdy sie nie zawiodlem,wychodze z zalozenia ze jesli cos kupuje to ma wszystko dzialac jak nalezy,czytajac ten temat wiedzialem ze bedzie wojna,ale prawda jest taka ze jedni po prostu zazdroszcza innym i stad te wypociny.
                                • avatar
                                  ProgShield
                                  0
                                  Nie ma po co faworyzować ani NIVIDI ani AMD ponieważ nie ma możliwości rozstrzygnięcia tego pojedynku to taki sam wybór jak AMD i Intel nie ma wygranych. Chodzi o to aby firmy rozwijały się i konkurowały bo przez to rozwija się technologia ;)
                                  • avatar
                                    mutissj
                                    0
                                    spotkanie fanbojów widzę.
                                    • avatar
                                      TurnToTomorrow
                                      0
                                      Albo Intel i AMD Cpu