Procesory

AMD Fusion: czy GPU zastąpi CPU w układach APU?

przeczytasz w 2 min.

Wzrost wydajności średnio o 20%

Technologia Fusion, czyli łączenie jednostek CPU i GPU na jednej kości procesora jako APU miało stać się zarzewiem sukcesu AMD. Nadal jednak potencjał tych układów nie jest w pełni wykorzystany, a receptą na nawet 20% poprawę wydajności ma być odpowiednie rozdzielenie zadań pomiędzy CPU i GPU.

AMD Fusion GPU APU CPU DragonOsiągnięcie takie skoku wydajnościowego możliwe jest bez stosowania dodatkowych zabiegów w postaci przetaktowywania rdzeni procesora. Badania przeprowadzone przez pracowników z Uniwersytetu Północnej Karoliny wspierało AMD, dlatego też wyniki odnoszą się przede wszystkim do architektury Fusion (od niedawna technologia zyskała nazwę Heterogenous System Architecture - HSA) i z pewnością pozytywnie mogą wpłynąć na wizerunek firmy.

Układy AMD Fusion, podobnie jak jednostki Intela, mimo integracji CPU i GPU, nie wykorzystują w pełni zalet tego rozwiązania. Siłą GPU są obliczenia, zwłaszcza zmiennoprzecinkowe, jednak często oprogramowanie zleca te zadania mniej wydajnej jednostce CPU, której największą zaletą jest z kolei obsługa złożonych operacji. Zdaniem badaczy brak dobrej współpracy CPU i GPU prowadzi do nieefektywnego obciążenia całego procesora.

Można jednak częściowo odwrócić role pełnione przez poszczególne elementy procesora, co znacznie poprawi ich łączną wydajność.

Programiści z  Uniwersytetu Północnej Karoliny opracowali technikę, która zleca CPU zajęcie się przede wszystkim pobieraniem danych z pamięci i udostępnianiem ich GPU. Z kolei GPU przejęło rolę głównej jednostki obliczeniowej i komunikuje się jedynie z szybką pamięcią cache L3, co znacznie zwiększa wydajność tego układu.

Technika przypomina rozwiązania stosowane w systemach GPGPU (General Purpose GPU), z tą różnicą że tutaj mamy ścisłą współpracę CPU i GPU w pojedynczym procesorze.

AMD kość procesora

Wyniki testów (symulowano prawdopodobnie architekturę procesorów  AMD Trinity) wskazują na średnio 20% wzrost wydajności (maksymalnie 113%). Trudno oczywiście powiedzieć jak to przekłada się na codzienną pracę z komputerem, gdyż brak informacji o zastosowanych benchmarkach. Dopóki nie będziemy wiedzieli czy testy nie faworyzowały GPU ze względu na bardzo niewielką liczbę skomplikowanych operacji, trudno uwierzyć jedynie przytoczonym liczbom.

Bliższe szczegóły technologii zaprezentowane zostaną na, rozpoczynającym się 27 lutego, międzynarodowym sympozjum High Performance Computer Architecture.


Więcej o procesorach AMD:

Źródło: North Carolina University

Produkt Roku 2011/12 - głosowanie

Czy już zagłosowałeś w plebiscycie na Produkt Roku? Na pewno masz swój ulubiony produkt i markę. Weź udział!

Komentarze

100
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    6
    Widze ze wieszacie psy na AMD ze probuje innowacyjnego podejscia. To zacznijcie wieszac rowniez na Intelu bo ma podobne pomysly. To jest przyszlosc. 400 rdzeni wyspecjalizowanych w obliczeniach zmiennoprzecinkowych zawsze pobije 4 czy 8 rdzeni uniwersalnych. Przeciez dlatego powstaja karty graficzne (juz z 2048 "rdzeniami") inaczej grafika nadal by byla liczona na CPU. Nie jest problemem rozdzielenie zadania na taka ilosc rdzeni, przeciez karty graficzne dzialaja na maksa jesli trzeba (nie marnuje sie zaden SPU). Problemem bedzie tylko i wylacznie wyluskanie z kodu x86 rozkazow zmiennoprzecinkowych i SIMD i przeksztalcenie ich do strawnej postaci dla GPU. Tym zajmuja sie obie firmy od jakiegos czasu. AMD tylko sie chwali ze wprowadzi to w 2014. Intel na temat dat sie nie wypowiada. Takie podejscie znacznie uprosci konstrukcje modulu CPU (tylko ALU) troszke skomplikuje dekoder rozkazow, nic nie zmieni w GPU. To faktycznie bedzie rewolucja.
    • avatar
      Konto usunięte
      4
      A ja powiem inaczej widać, że AMD chce zrobić coś nowego rewolucyjnego, próbują, testują i to jest właśnie postęp technologiczny. To prawda, że bulldozer nie jest jeszcze bardzo udaną konstrukcją, ale jest innowacyjny. Owszem AMD mogło wydać Phenoma III o takiej samej konstrukcji tylko w mniejszym procesie technologicznym (tak jak to robi Intel), ale wydali coś nowego.

      W tej chwili jeszcze programy nie są przystosowane do nowych konstrukcji, ale za niedługo może zobaczą potencjał płynący z takiego podejścia do sprawy.

      Tak rodzi się postęp, a rozwijanie jednego to nawet nie stagnacja ale cofanie się w rozwoju.
      • avatar
        mrgibbass
        3
        Widzę tutaj ciekawą dyskusję. Sam używam procesorów AMD od kilku lat i wcale na nie nie narzekam, a w swoim wyborze kieruję się wydajnością i oczywiście ceną, ponieważ rodzice moi nigdy mi komputera nie kupili a na to co mam zapracowałem sam. Podoba mi się to jak AMD stara się wprowadzać coś nowego i nie rozumiem przykładowo jak można narzekać na APU. Kupiłem netbooka z APU E-450 i jestem bardzo zadowolony i nie wydaje mi się żeby np Atom z Nvidią był od niego lepszy. Poza tym procesory intela są drogie, każdy orze jak może :)
        • avatar
          Robert2137
          2
          dlaczego negujesz pomysł AMD na tym rynku trzeba wykazać się innowacyjność i AMD tak robi dobrze że próbuje czegos innego jeżeli na rynku CPU średnio im idzie.
          • avatar
            Konto usunięte
            2
            NIE KARMIĆ TROLA!
            Każdy myślący wie jaki jest stosunek ceny/wydajności/zapotrzebowania na energię w platformach opartych na CPU Intela/AMD, a jak nie wie, to sobie sprawdzi w google i kupi jakie mu będzie potrzebne.
            • avatar
              Konto usunięte
              2
              Ja nie rozumiem tych pyskowek. Jesli wezmiecie kalkulator to wyjdzie ze stosunek wydajnosc/cena/energochlonnosc jest niemalze identyczna we wszystkich prockach. W tej chwili Intel narzuca wysokie wymagania. Ale zarowno u Intela jak i AMD nie pracuja idioci. Wyceniaja swoje produkty na tyle na ile pozwala rynek (konsumenci, konkurencja) inaczej szybko by zbankrutowali. AMD mialo swoj dobry okres gdzie mozna smialo powiedziec ze byli liderami, teraz taki okres ma Intel. Co nie znaczy ze znow role nie moga sie odwrocic. AMD jako pierwsze wprowadzilo kontroler pamieci w CPU oraz 64 bit. Pentiumy 4 dostawaly wtedy lomot i grzaly sie jak cholera. Moze podobna sytuacja zaistnieje gdy APU zamienia sie w HPU. Kto wie, zobaczymy pozyjemy. Na razie nie ma co wrozyc z fusow tylko cieszyc sie ze chlopaki staraja sie zebysmy mieli tanie i wydajniejsze procesory.
              • avatar
                prociu
                1
                Ekstra tytuł newsa.
                • avatar
                  Konto usunięte
                  1
                  do mojej domowej stacji roboczej taki procesor mógł by się przydać. Wykonuje często obliczenia zmiennoprzecinkowe i takie rozwiązanie mogło by je znacznie przyspieszyć za niewielka cenę, w porównaniu do rozwiązań profesjonalnych na które mnie porostu nie stać.
                  • avatar
                    Konto usunięte
                    1
                    APU nie jest do gier(nowych) jego docelowy rynek to biura,szkoły. intel nie jest w stanie zapawnić w tej cenie FullHD testowanie tego w wieśku 2 mf3 B3 MW3 ma na celu pokazanie że za taką cenę jesteś w stanie zagrać w te gry na najniższych detalach\ rozdzielczościach
                    AMD strzelił sobie goola modułem w własną bramkę. jednakże kto ma I7?
                    • avatar
                      Konto usunięte
                      0
                      Jesli zastapi GPU to cale CPU to staloby sie to dawno, a jesli ma stac sie w przyszlosci to zrobi to Intel lub Nvidia, w co watpie po prostu prymitywne jednostki FPU liczone w setkach tysiacach nie sa tak bardzo potrzebne w domowych czy biurowych aplikacjach.
                      • avatar
                        Konto usunięte
                        0
                        Tia, tylko, że gpu sobie nie radzą zbyt dobrze z 2/3 sytuacji, a manipulacje zastępujące fpu przez gpu nawet przy wspólnej przestrzeni adresowej będą i tak sporo wolniejsze od wykonywanych przez cpu. Wystarczy popatrzeć - 20% przy naprawdę natrudzeniu się i ograniczeniu do spreparowanych laboratoryjnych warunków, a optymalizacja pod Sandy Bridge daje 30% przyrost wydajności w (na takich samych zasadach spreparowana). Czyli lipa - AMD się po prostu zabezpiecza przed kompromitacją czyli znaczy, że Trinity to będzie tragedia wydajnościowa. A miałem nadzieję, że coś się zacznie dziać w segmencie.
                        • avatar
                          Konto usunięte
                          -16
                          Do wszyskich minusujących:

                          a wy w większości i tak kupujecie Intela, zaś lubicie AMD bo niepotrzebnie boicie się nieunknionego monopolu Intela.

                          Założę się że pomiedzy i3 2100+6670, a A8 wolelibyście Core i3, tylko sami tego otwarcie nie przyznacie.

                          Tak samo z bulldozerzem:

                          90% ludzi zamiast FX-8150 wolałoby Core i7 950.

                          Założe się że lubicie AMD, ale nie macie zamiaru wspierać go własnymi pieniędzmi. Znałem jednego pseudoFanboya AMD, który miał komputer z procesorem...i5 2500k

                          Minusujcie aż do -1000
                          • avatar
                            Vyzygota
                            -21
                            Niezłą matematykę tutaj przedstawiacie.
                            "...średnio 20% wzrost wydajności (maksymalnie 113%)."

                            Jeżeli stan wyjściowy to 100 i zwiększa się wydajność o 20%, wynik to 120.

                            Jeżeli stan wyjściowy to 100, uzyskano 113% wydajności podstawowej to wzrost był o 13%.

                            Stwierdzenie że średnio o 20% a maksymalnie o 13% to jest to dość dziwna średnia.

                            Pozdrawiam wszystkich informatyków którzy nie umieją liczyć!!!
                            • avatar
                              Konto usunięte
                              -22
                              Ależ mnie minusujecie.

                              Czekajcie wy, po premierze tych wynalazków AMD to ja będe was minusował, podobnie jak było z bulldozerzem.

                              To tez zminusujcie. Samemu daję -1.
                              • avatar
                                Konto usunięte
                                -42
                                Moim zdaniem zastąpienie przez GPU zadań CPU będzie jeszcze gorszą porażką niż moduły zamiast rdzeni. Wszystko przez oprogramowanie. Kto będzie modyfikował kody programów dla jakiegoś AMD z nieiwelkim udziałem w rynku.

                                Ten pomysł to totalna klapa. Ani to nie będzie dobry procesor, ani dobra grafika.

                                Nie umieją i co gorsza już nawet nie chcą zrobić porzadnego procesora, więc chcą wmawiać że to tylko kwestia oprogramowanie, jak w Faildozerze.

                                Moim zdaniem powinni rozwijać zwykłe CPU i rywalizować z Intlem o miano najlpeszego CPU na rynku. Wycofanie się rynku wydajnych procesorów oznacza też totalną degradację prestiżu firmy.

                                Wycofanie się z wysokowydajnych CPU to ogromny błąd AMD, zaś żałosna próba odrobienia połąćzeniem z układem grafiki będzie totalną klęską.

                                Po prostu, pomysł się nie sprawdzi z uwagi na niedostosowane oprogramowanie.

                                Jestem pewny że Intel na konwencjonalnych układ Haswell, Broadwell bedzie zarabiał krocie, zaś AMD będzie producentem-ciekawostką, podobnie jak VIA.
                                • avatar
                                  Ladros
                                  0
                                  Zobaczymy pożyjemy? ftw?!
                                  • avatar
                                    Konto usunięte
                                    0
                                    Myślę, że pomysł dobry. Takie rozwiązania zdają egzamin, a trzeba iść z duchem czasu.