Karty graficzne

Jest bardzo słabo - pierwsze informacje o wydajności karty graficznej Intel DG1

z dnia
Paweł Maziarz | Redaktor serwisu benchmark.pl
35 komentarzy Dyskutuj z nami

Wszystko na to wskazuje, że pierwsza karta graficzna Intel Xe nie będzie należeć do demonów wydajności. Osiągi akceleratora mają być porównywalne do GeForce'a ze średniego segmentu... który wyszedł w 2012 roku.

Premiera kart graficznych Intel Xe to jedno z najbardziej wyczekiwanych wydarzeń nadchodzących miesięcy. Jeżeli liczycie na dobrą wydajność pierwszych modeli, najprawdopodobniej będziecie rozczarowani – pierwsze przecieki o osiągach karty DG1 wskazują na bardzo słabe osiągi.

Karta graficzna Intel DG1

Jedną z pierwszych konstrukcji, jakie pojawią się w segmencie konsumenckim ma być model DG1 (Discrete Graphic 1). Wiemy, że karta przeszła testy w laboratorium Intel, a niedawno pierwsze egzemplarze traiły do producentów oprogramowania.

Intel DG1

Dokładna specyfikacja modelu DG1 jest owiana mgłą tajemnicy. Według nieoficjalnych przecieków, wykorzystuje on 96 jednostek obliczeniowych (EU). Testowa karta nie wymaga dodatkowego zasilania, co może wskazywać na niewielkie zapotrzebowanie na energię elektryczną.

Wydajność karty graficznej Intel DG1

Intel DG1 - wydajnośc w SiSoftware

W bazie SiSoftware pojawiły się wpisy, które ujawniają moc obliczeniową Intel Discrete Graphic 1 – wynosi ona 1815 Mpix/s, więc niewiele więcej niż w przypadku GeForce GTX 650 Ti, a więc karty ze średniego segmentu, która debiutowała prawie 8 lat temu (!).

Biorąc pod uwagę, że moc obliczeniowa ma duże przełożenie na realną wydajność, nie powinniśmy tutaj oczekiwać rewelacyjnych osiągów. DG1 najprawdopodobniej będzie low-endowym modelem i raczej nie będzie się nadawać do grania (a przynajmniej nie w najnowsze gry i w normalnych ustawieniach, bo podczas targów CES odpalono na nim Destiny 2 - filmik znajdziecie poniżej). Jeżeli liczyliście na coś lepszego, musicie poczekać na kolejne, wydajniejsze konstrukcje.

Źródło: NotebookCheck, inf. własna

Warto zobaczyć również:

Komentarze

35
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    AmigaPPC
    Tego się właśnie spodziewałem.
    Nie pykło :P
    15
  • avatar
    szymcio30
    Nie rozumiem do czego ta karta ma służyć? Do grania ani profesjonalnych zadań się nie nadaje wiec chyba tylko dla fanów intela. Zresztą wydajność 8 letniej karty to przecież prehistoria;)
    14
  • avatar
    zimeq
    no to do AMD maja jakies 20 lat swietlnych
    14
  • avatar
    xbk123
    Ja tam się nie spodziewałem, że ta popierdółka zaoferuje coś sensownego jeśli chodzi o wydajność. Prawdopodobnie nawet późniejsze najszybsze modele od intela nie będą czymś, co mogłoby zagrozić NV lub AMD. To wszystko bez odpalania kryształowej kuli mówię.
    10
  • avatar
    bullseye
    To teraz odkryją backdory i wydajność znowu spadnie po załataniu :)
    Szkoda, bo fajnie by było mieć trzech graczy, tak samo jak fajnie by było mieć chociaż dwóch na rynku procesorów :(
  • avatar
    sebmania
    RGB jest wiec musi być dobra
  • avatar
    Pixel
    Że w którym roku? w 2012 ? To relikt, chyba niedługo zintegrowane karty będą wydajniejsze ...
  • avatar
    mjwhite
    Po czym Pan redaktor wnioskuje że to karta DG1?
    Nie zgadza się ani taktowanie, ani liczba SP ani podpis integrated graphic.
    Już prędzej wygląda to na integrę w tigerlake.
  • avatar
    serek25
    Elektroniczny śmieć.
  • avatar
    piwo1
    Jak to mówił koduri?
    https://youtu.be/VVuOATRBrWM
  • avatar
    Kapitan Nocz
    zaczyna się lament, nie wiadomo co to za karta i czy to nie jakaś prosta próbka dla developerów a tu już, że nic z tego nie będzie. Jeśli Intel chce zaistnieć tym czymś w sektorze obliczeniowym to karta musi być optymalizowana pod wysoką moc obliczeniową inaczej nikt tego nie weźmie patrząc jak mocno cisną Nividia z Teslą i AMD z Radeonem instinct. Z drugiej strony mogło by się potwierdzić to co już kiedyś pisałem, ze ten cały Raja Kurdi to człowiek od porażek GPU i nie bardzo po tym co AMD wypuszczało dawał sobie radę w tej dziedzinie. Ale może się mylę i Intel mocno uderzy w rynek GPU... Trzeci gracz by sporo mógł zmienić.
  • avatar
    Konto usunięte
    Intel już ze 20 lat straszy wprowadzeniem swoich GPU. Najpierw skończyło się to wprowadzeniem kart zintegrowanych, potem kolejnymi ich generacjami, potem integracją z CPU. Za każdym razem świat pocił się na myśl, że jednak tym razem. No i w pi... wylądował i cały misterny plan też w pi...
  • avatar
    Wszystko wskazuje na to, że szykuje się porażka, która w ogóle nie powinna opuścić laboratorium. Rozumiem, że to ich pierwsza karta graficzna i nie mają doświadczenia. Jednak uważam, że powinna ona zadziwić konkurencję choćby pod niektórymi względami.
    -1
  • avatar
    Irrlicht
    *Jeżeli* będzie żarła naprawdę mało prądu, oraz *jeżeli* będą zapierdziście stabilne sterowniki pod Linuksa, oraz *jeżeli* śmigać na tym będą ze 3 monitory 4k w 2D, to nadal może być to świetna karta do desktopa przeznaczonego do mielenia danych, np. takiego z Ryzenem (od 8 rdzeni w górę). Ale czy te "jeżeli" będą spełnione, to się okażę dopiero w praktyce.
  • avatar
    QuadDamageQ3
    Może i mało wydajna, ale połączenie srebrnej obudowy z niebiesko-fioletowym podświetleniem mnie urzekło. Miałem kiedyś w podobnym stylu zrobioną Hondę Civic w NFS:U2 ;)
  • avatar
    BrumBrumBrum
    No a czego się spodziewaliście? że intel po wznowieniu prac nad dGPU od razu stanie się killerem topowców? Po tak długim niebycie na rynku dGPU, i tak zrobili bardzo dużo. chociaż z drugiej strony, przy takim budżecie jakim dysponują można by rzec, że góra urodziła mysz.

    ale niech próbują. im więcej graczy na rynku tym lepiej.
  • avatar
    Obiektor
    LarraBee ;)
  • avatar
    zimeq
    jak to sie ma do wbudowanej w Ryżena Vegi? :D