Karty graficzne

Nowy konkurent ATI i Nvidii? Może być rewolucja!

przeczytasz w 1 min.

Caustic Graphics - o tej firmie na pewno mało kto słyszał ale w najbliższym czasie może się to zmienić. CG planuje bowiem wejście na rynek kart graficznych. Co ciekawe, jej przedstawiciele twierdzą (część z nich to byli pracownicy Intela, Nvidii bądź AMD / ATi), iż ich konstrukcje będą dwudziestokrotnie wydajniejsze od najwydajniejszych układów, które dzisiaj znamy.

Stworzone przez firmę układy graficzne mają przetwarzać grafikę korzystając wyłącznie z raytracingu - technologii pozwalającej na uzyskanie realistycznie wyglądającej grafiki 3D. Wcześniej to rozwiązanie miało jedną, dość istotną wadę: niską wydajność. Przedstawiciele CG twierdzą, że udało jej się obejść wszelkie bariery i uzyskać ogromną wydajność niedrogiego GPU.

Pierwsza generacja kart graficznych Caustic Graphics, nazwana Caustic One ma trafić na rynek jeszcze w tym roku. Kolejnych informacji powinniśmy spodziewać się niebawem - możliwe, że jeszcze w kwietniu.

Czy tak będzie wyglądała karta Caustic Graphics

Źródło: cnet.com

Komentarze

89
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    -1
    1. 20x szybsze tzn. 20x150W = 3000W !!!!!!!!!!!
    2. za rok i tak nie bedzie w co grac na PC
    • avatar
      Konto usunięte
      0
      Byłoby miło, aczkolwiek jak zwykle nic z tego nie będzie :/
      • avatar
        hesperus
        0
        eeee, nie uwierze dopoki nie zobacze...
        a Bitboys jeszcze tworza swoje Glaze 3D?
        • avatar
          Konto usunięte
          0
          "iż ich konstrukcje będą dwudziestokrotnie wydajniejsze od najwydajniejszych układów, które dzisiaj znamy"

          Jeżeli to prawda to niska cena i ATI i NVIDIA znikają z rynku :DDD
          • avatar
            Konto usunięte
            0
            Czyżby rewolucja, a może kit?
            • avatar
              Konto usunięte
              0
              może jakiś obraz będzie przetwarzać 20x szybciej ale czy w grze będzie 20x więcej fpsów? o to jest dobre pytanie! ale czekam z niecierpliwością na to cudeńko i na pierwsze testy :))) Oby był to hit! :)
              • avatar
                Konto usunięte
                0
                To co ogłosili teraz czyli 20x szybciej to:
                a) odnosi się do renderingu pod dobranymi aplikacjami
                b) nie wiadomo do jakiej karty porównują
                c) nawet na stronie producenta pisze że produkt opiera się głównie na optymalizacji sterowników
                d) wystarczy więc popatrzeć na ostatnio wypuszczonego na rynek FirePro V8700 żeby zobaczyć że karta fizycznie identyczna z 4870 potrafi być o 600% szybsza w specjalistycznych zastosowaniach (Maya)
                • avatar
                  Konto usunięte
                  0
                  Jam jest Tomasz niewierny. Póki nie zobacze fps'ow w crysisie i wyniku w benchmarku nie uwierzę.
                  • avatar
                    danieloslaw1
                    0
                    Hahahahahaah ale sie uśmiałęm firma bez żadnego doświadczenia takie coś? No dajcie spokój!
                    • avatar
                      torture
                      0
                      Wow, pamięci samemu można wsadzać? :D Fajnie, fajnie. Niech próbują, a co. Ja im życzę jak najlepiej :)
                      • avatar
                        Konto usunięte
                        0
                        "część z nich to byli pracownicy Intela, Nvidii bądź AMD / ATi"

                        Myśle że oni mają doświadczenie jakieś ;)
                        • avatar
                          Matiix25
                          0
                          jak im się uda to będzie ciekawie!!!
                          • avatar
                            Konto usunięte
                            0
                            Wkoncu ktos wpadl na ten pomysl. Po co dalej branc w vertex/pixel shadery czy tysiace roznych technik ktore tylko utrudniaja oprogramowanie konkretnego efektu. Na tym etapie rozwoju prosciej i lepiej (w sensie jakosci obrazu) jest zastosowac wlasnie raytraycing w real time. Oczywiscie przeszkoda jest czas generowania sceny, ale zobaczymy, moze to bedzie wlasnie TO.
                            • avatar
                              Konto usunięte
                              0
                              tez mnie ciekawia te pamieci, no i te mini PCI Express. Do tego te chlodzenie - chyba nie bedzie "16-sto" slotowe ale gora jedeno,dwu - widzac ten maly niebieski radiatorek, moglby byc takie jak w procesorach ale jakos te dwa rdzenie sa blisko siebie. @Wyspa - jesli ja procowalbym w Intel itp. jakos sprzatacz to czy znaczy sie ze umialbym zrobic taka karte?
                              • avatar
                                romisz
                                0
                                Pożyjemy zobaczymy...
                                Może to niezbyt chrześcijańskie ale nie uwierze póki nie zobaczę jak ta karta działa w praktyce (czytaj: ile fps-ów)
                                • avatar
                                  Konto usunięte
                                  0
                                  Tu nie chodzi o gry, a raczej jakieś aplikacje i poszczególne rodzaje wyświetlanej grafiki. Ta karta raczej do gier nadawać się nie będzie.
                                  • avatar
                                    Konto usunięte
                                    0
                                    To nie jest kwestia techniki ale pieniędzy, Ati i NVidia nie pozwolą sobie na to, żeby ktoś zgarniał im klientów. Wszystko zależy od twórców gier ( tzn kto im więcej zapłaci)
                                    • avatar
                                      danieloslaw1
                                      0
                                      Ludzie to FAKE!!!! To tak jakbym powiedział, że wynalazłem antygrawitacje! Chociaż To bardziej możliwe!!!
                                      • avatar
                                        rszuba
                                        0
                                        Malkontenci... Poczekamy - zobaczymy, po co pisać, że fake, że gówno i do niczego się nie przyda?
                                        Gdyby wszyscy mieli takie podejście to byśmy pewnie teraz żyli w Średniowieczu....
                                        • avatar
                                          robgrab
                                          0
                                          tez mi sie wydaje ze 20x szybciej odnosi sie raytracing np hardware vs soft 3dstudio a nie 20x szybciej niz np ati4870x2 czy tam gf280
                                          • avatar
                                            Konto usunięte
                                            0
                                            ta "krowa co dużo muczy, mało mleka daje" :) pozdro
                                            • avatar
                                              taz1024
                                              0
                                              20x szybciej??? To chyba płytki będą zrobione z kosmicznego materiału gdzie prąd płynie szybciej a pamięć będzie miała częstotliwość 10GHz!!! Kosmiczna technologia ??? 20 razy szybciej to bedzie w aplikacjach zoptymalizowanych pod ten układ chyba.
                                              • avatar
                                                andrzej855
                                                0
                                                ciekawe czy dalej będzie pci express x16 ;x
                                                • avatar
                                                  torture
                                                  0
                                                  Btw, nieźle to wygląda:
                                                  http://en.wikipedia.org/wiki/Ray_tracing_(graphics)
                                                  • avatar
                                                    Konto usunięte
                                                    0
                                                    Panowie i Panie oczywiście :) może być ciekawie nawet w grach ale dopiero po 2010roku lub jeszcze później.
                                                    Jeśli chodzi o możliwości tego ray tracingu to na przeszkodzie stały do tej pory przede wszystkim wymagania sprzętowe. Jeżeli to wszystko prawda to sądzę, że najdalej za 3-4lata ray tracing będzie powszechnie wykorzystywany w nowych grach, a jego wykorzystanie w programach graficznych będzie przebiegać błyskawicznie w porównaniu z tym co mamy obecnie.
                                                    Oczywiście to wszystko wiąże się z niesłychanie ogromnym przełomem jeśli chodzi o realne wyświetlanie gier i nie tylko gier (zastosowanie również w filmach).
                                                    Czyżby czekał nas skok do "nowej" ery gier i wyświetlania grafiki...
                                                    Myślę, że tak ale jeszcze przyjdzie nam długo poczekać.
                                                    Zapraszam do przeczytania tego krótkiego artykułu:
                                                    http://kopalniawiedzy.pl/ray-tracing-CPU-GPU-przelom-Caustic-Graphics-7011.html
                                                    • avatar
                                                      Konto usunięte
                                                      0
                                                      Hehe, jeżeli to prawda i niedługo porzucimy wszystkie mapy fotonowe, GI i inne techniki na rzecz czystego Raytracingu to będzie przełom faktycznie.
                                                      • avatar
                                                        pomidor
                                                        0
                                                        Co do podboju rynku gier, to kompletna bzdura. Ta karta może być nawet 1000x szybsza i nikt tego nie wsadzi do PC nawet za darmo. Wszystko co nie jest zgodne z DirectX, jest spalone na starcie. Po za tym ray tarcing w grach nie ma siły przebicia. Czy ktoś grając w Age of Empires III, Half-Life 2 lub Gears of War, naprawdę tęsknił za super realistycznym załamaniem światła na wodzie, lub szybach w oknach ? To są rzeczy trzeciorzędne, i nikt przy zdrowych zmysłach nie będzie próbował przekonywać twórców gier do porzucenia dobrze już poznanych metod i narzędzi. Zbyt dużo czasu i pieniędzy w to zainwestowali, a ray tarcing nie oferuje takiej infrastruktury, aby szybko i bezboleśnie na niego przeskoczyć.

                                                        Co do Larrabee to szykuje się kolejna porażka po Itanium. Ten procesor ma podobną architekturę do Cell, tylko że jest wykonany w prymitywny sposób. Procesor Cell projektowano od zera (nie licząc jądra PowerPC), i tam wszytko zostało do siebie perfekcyjnie dopasowane. Tymczasem Larrabee jest prostackim połączeniem kilkunastu przestarzałych Pentuim - ów, trochę podrasowanych jakąś rozszerzoną wersją SSE oraz pamięci podręcznej. Niestety, ale obydwa te procesory - Cell i Larrabee - kompletnie nie nadają się do DirectX, a forsowanie ray tracingu raczej nie wypali.
                                                        • avatar
                                                          robgrab
                                                          0
                                                          Pamietam tego q3 rt na klastrze,dzialalo to 512x512 i aax4 z predkoscia okolo 20fps. Ale fakt ze jezeli gpu ma algorytmy w krzemie to zrobi to znacznie szybciej. W linku podanym przez danielx7 wynika ze w 2010 maja osiadnac 200x przyspieszenie,ambitne plany. Niestety widac tam ze chca stworzyc wlasny api bazujace na opengl. Moze to i bedzie supportowane przez programy do rt bo tam czas jest wazny ale watpie ze producenci gier beda robic dodatkowe wersje enginow na te ich api
                                                          • avatar
                                                            robgrab
                                                            0
                                                            Pamietam tego q3 rt na klastrze,dzialalo to 512x512 i aax4 z predkoscia okolo 20fps. Ale fakt ze jezeli gpu ma algorytmy w krzemie to zrobi to znacznie szybciej. W linku podanym przez danielx7 wynika ze w 2010 maja osiadnac 200x przyspieszenie,ambitne plany. Niestety widac tam ze chca stworzyc wlasny api bazujace na opengl. Moze to i bedzie supportowane przez programy do rt bo tam czas jest wazny ale watpie ze producenci gier beda robic dodatkowe wersje enginow na te ich api
                                                            • avatar
                                                              Baleryon
                                                              0
                                                              W zastosowaniu raytracingu do gier nie chodzi wbrew pozorom o realistyczne, fresnelowskie odbicia/załamania czy inne temu podobne bajery - umiemy to już dość udatnie symulować shaderami (pamietacie ładne cienie w DOOMie 3?) i żaden szary gracz nie zwraca tu uwagi na odchyłki od realizmu. Natomiast to, co jest istotne to fakt, że w raytracingu i algorytmach pochodnych tworzymy obraz od d.... strony, rzucając najpierw promienie przez piksele obrazu wynikowego i patrząc, w co trafią. Jakie są konsekwencje? Przy obecnym renderingu rastrującym (realizowanym przez współczesne karty 3D), jeśli mamy scenę składającą się z 10 mln widocznych trójkątów, to nie ma bata - GPU musi przemielić wierzchołki praktycznie każdego z nich przez vertex shadery, tzn. czas renderowania sceny (a co najmniej przetwarzania geometrii) zależy liniowo od stopnia jej skomplikowania. Natomiast w raytracingu obliczamy tylko to, co widać - wszystkie trójkąty mamy w hierarchicznej strukturze danych i "lecący" promień sprawdza tylko te, które leżą mu na drodze. Czas trwania takiego procesu rośnie tylko logarytmicznie (dzięki tej hierarchiczności) w zależności od złożoności sceny. Ergo - jak ktoś wreszcie zrealizuje wydajny raytracing sprzętowo, dostaniemy gry z super-dokładną geometrią - nie wiem jak wy, ale ja oddałbym chętnie AA, AF i nawet wysokorozdzielcze tekstury w zamian za to, żeby koła pojazdów, palce na broni i jej lufa były okrągłe, a drobne gałązki drzew faktycznie 3wymiarowe nawet z nosem przy nich.
                                                              • avatar
                                                                nicrame
                                                                0
                                                                A ja to widze slabej jakosci render PCB wygladajacy jak by go robil ktos, kto nie widzial za duzo sprzetu. Widze tez duzo marketingowego belkotu i troche liczb, ktore sa cudowne (20 razy szybsze, 200 razy szybsze! miliard razy szybsze! lepsze! juz dzis! juz zaraz!).

                                                                Bylo by bardzo milo, zobaczyc karte-akcelerator do takich obliczen, ale jakos nie widac nic takiego. Przyczyna jest bardzo prosta, kazde swiatlo to iles tam promieni, zalozumy 200, kazdy promiec=n odbijajaca sie od jakiejs powierzchni zmienia nasilenie, ubarwienie. Bo moze byc czescowo wchloniety przez ubranie, i odbijac sie od lustra z jedynie 50% spadkiem sily. Do tego moze zmienic kolor. Pozniej taki promien musi sobie poleciec dalej, no i tu trzeba obliczyc, jak dobija sie od danej powierzchni, w ktorym kierunku poleci, az natrafi na kolejna przeszkode, i tak az do jego kompletnego znikniecia. Za kazdym razem zmieniajac wyglad tego, na co pada rozjasniajac to, i zmieniajac kolor tego materialu. Zakladamy ze takich promieni jest na jedno swiatlo powiedzmy tysiac (w rzeczywistosci jest "troszke" wiecej ;-) ). Wbijamy kilkanascie zrodel swiatla i to wszystko musi byc poobliczane. Poza tym w zaleznosci od koloru na jedna powierzchnie moze padac kilka innych promieni, w roznej kolejnosci. To wszystko musi wyliczayc taka karta. I mysle ze jeszcze wiele lat minie zanim cos takiego ujrzymy w grach.
                                                                • avatar
                                                                  tomidomi
                                                                  0
                                                                  Czemu nikt nie zwroci uwagi, ze post nie jest do konca prawdziwy. Ta karta to nie jest samodzielna karta graficzna i nie stanowi konkurencji dla ATI/NVIDIA. On ma pracowac razem z juz zainstalowana karta i wspomagac lub wykorzystywac ja do RT. Warto zajrzec na strone www.caustic.com i troche poczytac.
                                                                  • avatar
                                                                    Konto usunięte
                                                                    0
                                                                    Nic z tego nie będzie - oczywiście "super hiper yo dwudziestokrotno-lepsza wydajność" jest spowodowana potrzebą rozreklamowania firmy. Wydaję mi się, że Caustic Graphics będzie miało ciężki start, bo ludzie będą zostawali raczej przy Ati lub Nvidia. Ja tam się dużo nie spodziewam - zwykły chwyt marketingowy.
                                                                    • avatar
                                                                      Konto usunięte
                                                                      0
                                                                      Kolejny artykul o jakiejs nowosci i znow, zalamany jestem komentarzami. Jesli ktos ma dostep do archiwalnych artykulow ze stron int., polecam poczytac komentarze z lat, kiedy mial wejsc na rynek GF (z shaderami itp). Ludzie pisali DOKLADNIE TAKIE SAME opinie jak Wy
                                                                      bla bla bla, lepsza grafika, lepsza wydajnosc?! niemozliwe.
                                                                      bla bla bla, rewolucja w cieniowaniu?! niemozliwe.

                                                                      dokladnie jak napisal rszuba. jesli by isc Waszym tokiem rozumowania (przynajmniej wiekszosci z Was), nadal siedzielibysmy w sredniowieczu.

                                                                      Reagujecie na takie nowosci (moze okaze sie sukcesem moze klapa, to nie jest istotne) tak samo jak ludzie reagowali na poczatku 20 wieku na slowo "samolot".

                                                                      Spodziewacie sie ze do konca swiata ATI I NVIDIA, tylko w kolko beda "odsmazac" swoje uklady i nikt nie wprowadzi nic rewolucyjnego??!! Zalamujecie mnie. Okazcie troche wiary. Bede sie z Was smial, jak sie okaze ze ten uklad bedzie naprawde rewolucyjny:-)

                                                                      Pozdrawiam
                                                                      • avatar
                                                                        mikael87
                                                                        0
                                                                        Dajmy na to że karta wyjdzie, a teraz pytanie: jaka płyta ją obsłuży? jaki chipset? Fakt że tam są pracownicy Intela, Nvidii i AMD/ATi może coś pomoże ale raczej wątpie.
                                                                        • avatar
                                                                          Makkk
                                                                          0
                                                                          Nie no trochę by było nie po ich myśli jeśli by zbudowali kartę nie obsługiwaną przez dzisiejszy sprzęt :}

                                                                          Poza tym jestem po stronie optymistów i również mam nadzieję, że nowej firmie uda się osiągnąc sukces.
                                                                          • avatar
                                                                            Konto usunięte
                                                                            0
                                                                            Cały problem polega na tym samym na czym polega problem wydajnosci pisalnia na klawiaturze QWERTY a chodzi o to ze kalwiatura ta jest specjalnei zaprojektowana tak by pisalo sie mozliwie jak najwolniej a to daltego ze keidts maszyniski pisaly bardzo szybko i przez to blokowaly klawisze w maszynach wiec ktos wpasl na pomysl zeby zrobic taki uklad ktory utrudni szybkie pisanie, no i sie przyjelo i trwa do dzisiaj bo nikt nie zrobil grubej kreski :D a byly inne uklady ktore pozwalaly pisac o wiele szybcje z powodu pewnych sylab spotykanych w wieksosci ejzykow i odpoweidneigo ukaldu klawiszy...

                                                                            Tak samo jest z obecna rgafika.. zaczeto robic ja w epwnym keirunku czyli DX i OPEN GL no i tak to twa i zmienaija sie ylko epwen funkcje ale kompatybilosc wsteczna musi byc zachowana.. a rpawda taka ze jkby przeprojektowac wszystko od nwoa akrty procsory, itd zrobic cos zupelnie nowego i anpsiac do tego zupelnie nowe gry to grafika by byla pewnie 10 krotnie ladniejsaz niz obecnie...
                                                                            • avatar
                                                                              Konto usunięte
                                                                              0
                                                                              właściwie to po odpowiedniej optymalizacji, tak jak w konsolach można z dzisiejszych kart więcej wydobyć.
                                                                              Za to ten niby screen karty to niwporozumienie, co ona nawet radiatorów nie ma ani ukłądu chłodzenia?
                                                                              • avatar
                                                                                aendrju
                                                                                0
                                                                                Mi sie wydaje że to będzie tak jak z kiedyś z kartami fizycznymi, że będzie osobną jednostką do obliczeń efektów "oświetlenia" sceny a w przyszłości zostaną zintegrowane z waszymi ulubionymi GFami i Radkami
                                                                                • avatar
                                                                                  maker
                                                                                  0
                                                                                  Kolejna karta ala "AGEIA" z ta roznica ze bedzie odpowiadala za obsluge realistycznego oswietlenia ;] Raczej watpie w jej powodzenie bo ma wspolpracowac ze zwykla karta graficzna dodatkowo. Do tego jeszcze OpenGL + wlasne rozszerzenia do obslugi zaawansowanych efektow RT.
                                                                                  • avatar
                                                                                    benzene
                                                                                    0
                                                                                    Optymiści są wśród nas, to dobrze. Tylko przygotujcie się na rozczarowanie. Po pierwsze co będą robić karty graficzne skoro renderowanie grafiki ma przejąć akcelerator? Sciągnijcie sobie np darmowego POV-RAYa i spróbujcie wyrenderować (raytrace) obrazek o rozdzielczości 1920x1080. Zobaczycie ile to trwa nawet dla cztero- rdzeniowca. Ta karta być może będzie tylko wspomagać pewne efekty. Idea jako żywo przypomina urządzenie RenderDrive służące do renderowania scen za pomocą raytraceingu. Zaporowa cena i obecnie wątpliwa przydatność jeżeli weźmiemy się za renderowanie NAPRAWDĘ REALISTYCZNE za pomocą Maxwellrender. Howgh!
                                                                                    • avatar
                                                                                      Konto usunięte
                                                                                      0

                                                                                      "Pierwsza generacja kart graficznych Caustic Graphics, nazwana Caustic One"

                                                                                      Z tekstu wynika że to"karta graficzna" a nie jakiś dodatek w slot-więc powinny być samowystarczalne.
                                                                                      cholera wie co to będzie ale cieszyłbym się jakby coś innego w ofercie się pojawiło.Zawsze jakaś atrakcja.
                                                                                      • avatar
                                                                                        Diablos
                                                                                        0
                                                                                        Jak dla mnie to firma chce zrobić wokół siebie szum aby wszyscy czekali na wyjście ich kart a wyjdzie cos pokroju 4870 albo GTX-a. Po prostu znają zasady rynku i wiedzą, że aby coś się dobrze sprzedawało potrzbna jest dobra reklama i szum wokół produktu... Taka moja opinia.
                                                                                        • avatar
                                                                                          Konto usunięte
                                                                                          0
                                                                                          Bardzo dobrze że karta będzie działać na zmodyfikowanym opengl. Może w końcu producenci gier przestaną faworyzować windowsa, a do każdej gry będzie dodawana mini dystrybucja linuxa. Albo płyta będzie bootowalna i gra odpala sie jak na konsoli :)
                                                                                          • avatar
                                                                                            Konto usunięte
                                                                                            0
                                                                                            Jak nie napisza sterów na linuksa, to mnie to nic a nic nie interesuje.

                                                                                            A przełom w zasadzie moim zdaniem musi być. Jest to wymuszone ekonomią. A jak coś jest wymuszone ekonomią to będzie. Prędzej czy później.
                                                                                            • avatar
                                                                                              Konto usunięte
                                                                                              0
                                                                                              Eee... tam już było kilka takich kart, które miały być takie super.

                                                                                              Pamiętam czasy Kyro - miał być hit wyszło gówno, później S3 wyskoczyło z Chrome - też niewypał. Matrox Parhelia też miał bić na głowę wydajnością ówczesnego GeForce i jakoś nic z tego nie wyszło.
                                                                                              • avatar
                                                                                                Konto usunięte
                                                                                                0
                                                                                                wg mnie to jest karta do wspomagania rt w obecnych kartach (cos ala osobna karta fizyki) i dopoki ATI nVida nie zainteresuja sie ta firma to prawdopodobnie zginie na ciasnym rynku. Teraz kolej na ATI nvidia kupila physX.
                                                                                                • avatar
                                                                                                  Konto usunięte
                                                                                                  0
                                                                                                  no no jak będzie tak jak piszą to spox ;)
                                                                                                  • avatar
                                                                                                    lord martin
                                                                                                    0
                                                                                                    szkoda ze czytac nie umiecie.

                                                                                                    http://kopalniawiedzy.pl/reptile/m/45/platform_chart-df937cafffc600c1f3d7b932727a5679.gif
                                                                                                    • avatar
                                                                                                      Konto usunięte
                                                                                                      0
                                                                                                      na początku może i coś to zmieni - ale po roku - dwóch latach wszystko powróci do normy i będzie tak jak przed wejściem tej firmy na rynek - no chyba, że pokazaliby jakiś oszałamiający sprzęt
                                                                                                      • avatar
                                                                                                        Konto usunięte
                                                                                                        0
                                                                                                        na początku może i coś to zmieni - ale po roku - dwóch latach wszystko powróci do normy i będzie tak jak przed wejściem tej firmy na rynek - no chyba, że pokazaliby jakiś oszałamiający sprzęt