Avatar użytkownika

Yosar

data dołączenia:

Moje komentarze (147)

    • Avatar użytkownika Yosar
      Yosar
      @raffal81 Yep kupuj. RT dobry, co z tego że w lokacjach Spidermana wali gliczami jak leci, ważne że glicze z RT kładą wszystkich na łopatki, co tam BSODy, czy brak obsługi starych gier (DX9), a obsługa DX11 tylko via emulacja, RT jest 'zajebiste' (czyli żałosne biorąc pod uwagę osiągi tej karty). Niektórym to już nVidia wyprała mózgi.
      Sprzedawanie produktu który w zasadzie nie działa, to dla niektórych 'wyszło im baaaardzo dobrze'. No to kupuj, i stań się dumnym posiadaczem tego czegoś.
      Samochód też byś kupił z odpadającymi felgami, co chwilę przystający nie wiadomo dlaczego, zżerający mnóstwo benzyny, jeżdżący tylko po nowych autostradach, ale już po lokalnej nie bardzo, bo to pierwszy samochód danego producenta? Czy po prostu źle życzysz ludziom i chcesz żeby się na minę nadziali?
      -2
      • Avatar użytkownika Yosar
        Yosar
        @zack24 Ale nie mają podobnych możliwości. Te karty po prostu nie działają na dzień dzisiejszy. Problemów jest tyle zgłaszanych przez różnych recenzentów, że nie wiadomo od czego zacząć. Glicze wszechobecne, wymagania rebar, praktycznie nie działają na starych grach (DX9), a DX11 to czarna rozpacz w wydajności i funkcjonowaniu (karta nie obsługuje natywnie DX11 tylko via emulacja), wieczne znikanie kart w boocie na starych platformach intela (!!!!!), bsody nagminne i tak dalej i tak dalej. Jak chcesz wtopić 350 dolarów, to kupuj. Albo przynajmniej przejrzyj sporo recenzji, bo to że np jednemu recenzentowi dana gra działała, innemu ta sama waliła gliczami (np Spiderman), bo zależało od lokacji.
        0
        • Avatar użytkownika Yosar
          Yosar
          @MokryN Sam jesteś stara technologia. Nonsensy pisać też trzeba umieć. Pobór prądu jest spory (tyle co w poprzedniej generacji 5900X), ale tylko przy pełnym obciążeniu wszystkich rdzeni. Powyżej ten pobór jest o tyle bez sensu pokazany, że w większości na niego składa się karta graficzna. Drobne 350 W RTX 3080. Schłodzenie 7600X/7700X nie jest bardziej trudne niż schłodzenie 5900X/5950X (pobierają przy pełnym obiążeniu tyle samo). I spokojnie do tego nadają się coolery na powietrze (byle nie byle jakie).
          A przyrost 25% masz też w graniu, nie tylko syntetykach. I nie potrzeba do tego dużo watów, ograniczone np do 88W mają taką samą wydajność w grach (cierpi oczywiście MT). Były takie testy robione. Więc możesz mieć i przyrost w grach o 25% i łatwy do schłodzenia procek (kompatybilny z dotychczasowym chłodzeniem).
          1
          • Avatar użytkownika Yosar
            Yosar
            @Arcin Oj na procesorach to ty się znasz, jak na chłodzeniach.
            0
            • Avatar użytkownika Yosar
              Yosar
              @paankracyk Ta nowa generacja intela to podniesienie zegarów i zwiększenie pamięci L2. Na tyle jest ona nienowa, że modele od i5 w dół (bez K) będą korzystać z rdzenia Alder Lake. Także cyferka ci się zmieni, Wydajność jakoś potwornie nie drgnie z wyjątkiem tej MT (dodanie dodatkowych wykastrowanych rdzeni e-core - dziękuje ale z tego więcej problemów niż pożytku).
              AMD ma jeszcze w zanadrzu modele z 3D Cache i o ile w nich wydajność w grach wzrośnie bardzo konkretnie (Raptor Lake ma problemy nawet z Zen 3d Cache co pokazują nawet jego własne slajdy, a co dopiero z Zen 4d Cache), to aplikacyjna spadnie raczej z powodu mniejszych zegarów.
              A nowe architektury dostaniesz od obu producentów dopiero w 2024.
              A żenienie Alder Lake czy Raptor Lake z DDR4 to poziom wydajności Zen 3 i to nie modelu 5800X3D bo ten jest poza zasięgiem czegokolwiek od intela z DDR 4. Tanie płyty AM5 mają być w październiku, przy premierze Alder Lake też nie było tanich płyt więc argument naciągany jak guma od majtek.
              Różnica jest taka, że w tanią płytę AM5 będziesz mógł włożyć prawdopodobnie procesor Zen 6 nawet (wsparcie do 2025+), a w tanią płytę Alder/Raptor Lake nie włożysz już nic więcej (uff cały rok wsparcia, to się intel wysilił), chyba że przeterminowane kanapki. Więc argument z płytami jest cienki.
              0
              • Avatar użytkownika Yosar
                Yosar
                @Wojciech Spychała Co to znaczy że kosztuje drożej niż i5? Które i5? Jak się takie ogólniki piszę to wypadałoby być konkretnym. AMD ma w porównaniu z intelem wzorowy porządek w nazewnictwie i specyfikacji modeli (K, KF, F, bez F i każdy o innej specyfikacji u intela) .12600K kosztuje 1580 PLN (opieram się na owocowym sklepie który pewnie nie jest najtańszy, ale przynajmniej sprawiedliwie nie jest najtańszy dla obu firm). 7600X jest szybszy od niego (w sumie to nawet 400 PLN tańszy 5600X ustępuje 12600K tylko 1-2% w grach, więc to żadna sztuka dla 7600X być znacznie szybszym niż 12600K). Ile będzie kosztował 7600X będzie więcej wynikiem kiepskiej wartości naszej waluty niż czegokolwiek innego. Zresztą niedługo później wyjdzie 13600K więc będzie można sobie ceny porównać.

                A tak dla przypomnienie wszystko I5 poniżej 13600K to nie będzie Raptor Lake, tylko Alder Lake, z lekka podbitymi zegarami w stosunku do modeli z serii 12. Czyli intel odgrzeje kotleta i sprzeda go jeszcze raz jako nowy procek i5.

                Pomijam już że intel zapowiedział podwyżkę cen do 20%. Bo to zobaczymy przy serii 13 jak to się ułoży.
                0
                • Avatar użytkownika Yosar
                  Yosar
                  @Bazyliszek Ta podstawka zadebiutowała w listopadzie 2016 i ma już prawie 6 lat. Obsługuje 4 generacje procesorów (jeśli liczyć tylko główne), to ile dłużej ma zostać?
                  AMD obiecało, że będzie wspierać przynajmniej do 2021. Może wyjdą jeszcze kolejne modele 3D, a może nie. Z obietnicy się wywiązali już dawno.
                  1
                  • Avatar użytkownika Yosar
                    Yosar
                    @szymcio30 Czyli nie masz pojęcia o rynku profesjonalnym. Nikt na rynku profesjonalnym nie będzie chciał kart żrących tysiące watów. Bo nie dosyć że zapłaci horrendalne koszty za pobór ich energii to dodatkowo zapłaci horrendalne koszty za odprowadzenie tego ciepła. Na rynku profesjonalnym to takie karty są montowane w setkach jeśli nie tysiącach w odpowiednich rakach. I klienci muszą się liczyć z poborem energii, nawet znacznie bardziej niż zwykły Kowalski (firmy płacą za energię więcej). Odprowadzić 600W w swoim mieszkaniu to dość duża nieprzyjemność, szczególnie latem. Odprowadzić takie 600 000 W (z tysiąca kart) to problem wręcz przemysłowy, bo wentylatorami z RTX-a 3080 tego nie zrobisz.
                    Równie dobrze możesz użyć łyżeczkę do herbaty w tym celu.
                    0
                    • Avatar użytkownika Yosar
                      Yosar
                      @Diuran Jasne, a architektura i zmiany w architekturze i procesie nie mają na celu obniżenia poboru mocy? Ty popatrz, a procesory jakoś trzymają się jeszcze znośnych granic poboru prądu (ok, intel wyłączmy z tego porównania, bo to taki odpowiednik nVidii, nie ma znaczenia, że niszczymy efektywność energetyczną układu overclockując go fabrycznie, ale będziemy 2% szybsi). A przyrost wydajności w procesorach jest w sumie nawet bez porównania większy z kartami (weżmy chodźby te 4 rdzenie pare lat temu vs 16 rdzeni teraz w desktopie). Da się? Da się. Wystarczy porównać architektury Buldozera i procesorów Ryzen. Tylko na to potrzeba właśnie sensownej zmiany architektury, bo założenia poprzedniej się totalnie w międzyczasie zdezaktualizowały i osiągneła już swoje granice dawno. A tego w nVidii nie było od bardzo dawna. I nie, dodanie tensorów nie jest taką zmianą architektury która wpłynełaby dodatnio na przyrost wydajności vs pobór mocy, wręcz przeciwnie wpłyneła bardzo bardzo negatywnie.
                      0
                      • Avatar użytkownika Yosar
                        Yosar
                        @pablo11 Skoro 3090 miała już oficjalnie 350W (a w modelach niereferencyjnych spokojnie dobijała do 400W i powyżej) to skąd wątpliwość co do 4090?
                        nVidia nie zmienia architektury (nie zmieniała od generacji Turing, a w kontekście shaderów itd nawet od Pascala) w przeciwieństwie do AMD, gdzie najpierw zmienili przy RDNA, a teraz przy RDNA3 znowu przeorganizowali ją pod kątem multi-chipletów. A nVidia musi konkurować z AMD, które ich po prostu w ciągu 1 generacji dogoniło (testament zastoju w architekturze nVidii) i jedyny sposób bez drastycznej zmiany architektury, to więcej tego samego, co nowy proces im umożliwi, ale więcej też zeżre prądu. Więc będzie więcej CUDA, więcej tensorów itd, ale to wszystko będzie też żarło więcej, dużo więcej prądu.
                        To testament też dla piewców raytracingu i oddzielnych tensorów obsługujących częściowo tą technikę, nie ma nic za darmo, masz wydzieloną część układu która żre nawet jak nic wielkiego nie robi.
                        Także nowe 4090 będzie żarło więcej, dużo więcej prądu niż 3090. Ile? Czy 600W? Na pewno to tylko nVidia teraz wie. Ale jestem pewien, że się nie zawahają z wydaniem takiego modelu jeśli tylko trochę zbliży się do wydajności multi-chipletu AMD. I będą tacy co to łykną piejąc wkoło, że to zajebista karta jest. Jak byli i tacy co kiedyś uważali GTX 480 za boski dar.
                        0
                        • Avatar użytkownika Yosar
                          Yosar
                          @BubaPi 3600 kosztuje dzisiaj 750 PLN, a biorąc pod uwagę że dolar w międzyczasie poszedł do góry to jego cena od czasu jak kupowałeś spadła sporo.
                          10100 ciekawym procesorem? Jaja sobie z ludzi robisz, czy chcesz kogoś na minę wpitolić celowo? Do gier to się dzisiaj nie nadaje już, do jakiś produkcyjnych zastosowań tym bardziej (4 rdzenie wtf?) a jak nie kupujesz desktopa do gier ani żeby sensownie używać wielu aplikacji to lepiej kup sobie laptopa. 10400 pod to twoje LGA1200 kosztuje 650-700 PLN i owszem, ale w plyte za 250 PLN (oj pojechales z tym 250 PLN, najtansza widze za 260 PLN i nie kupilbym w życiu najtanszej plyty, bo z wielu powodow jest najtansza, o ktorych sie przekonam jak ja kupie) nie wstawisz już żadnego upgradu tego procka, czyli kolejna wymiana za 2-3 lata czeka cię razem z płytą. I najtansza plyta na AM4 kosztuje 210 PLN (i tez bym w życiu jej nie kupił, z tych samych względów co tej na LG 1200), ale już najtansza plyta na b450 kosztuje 250-260 PLN (i tu już bym przynajmniej rozważył kupno). Kupując tanią płytę na 1200 masz zero upgradu w tym momencie (zero sensu szybszych pamięci bo zablokowane), i zero upgradu w nieodleglej przyszlosci. Kupujac tanie B450 masz droge upgradu nawet do aktualnie mocarza w grach czyli najnowszego 5800X3D, nie wspominając o tanich jak barszcz szybkich pamięciach DDR4 z uwagi na ich nieuchronne schodzenie z rynku.
                          Jak kupujesz raz na 6 lat sprzet to moze inwestowanie w najtansza plyte, najtanszy procek i najtansza pamiec od intela aktualnie ma sens, bo jak będziesz kupowal kolejne to i tak bedziesz zmuszony wymienić wszystko (włącznie z zasilaczem). Jeśli jednak nie chcesz przy kolejnym upgradzie zmieniać wszystkiego to droga AMD jest wciąż atrakcyjniejsza. A po wyjściu 5800X3D masz ją jeszcze wydłużoną do najwyższych na dzień dzisiejszy standardów.
                          10400 może wyglądać atrakcyjnie tylko dla kogoś dla kogo komputer się składa tylko z procesora.

                          PS Taki 5600 kosztuje teraz na premierę 1000 PLN, za parę miesięcy po premierze Zen 4 będzie pewnie kosztował z 750 - 800 PLN i zjadać tego 10400 z przystawką. A konkurentem dla tego 10100 od AMD jest co najwyżej Ryzen 3 4100 (aktualnie 480 PLN, 4 rdzenie itd), a nie 3600. Ale każdy kto się wpitoli dzisiaj w 4 rdzenie szybko zrozumie czemu to kiepski pomysł (i nie chodzi tylko o gry).
                          0
                          • Avatar użytkownika Yosar
                            Yosar
                            @Arcin Misiu, porównanie jest na oficjalnych specyfikacjach obu procesorów, na oficjalnej specyfikacji DDR5 Alder Lake nie jest nawet szczególnie szybsze od DDR4, a czasem wolniejsze. A jeżeli chcesz szybsze pamięci do intela to już jest overclocking, nie wspierany przez żadną z firm (pójdzie albo nie pójdzie, będzie się wywalał częściej, albo nie). I Ryzena też możesz overclokować szybszymi pamięciami, czy chociażby zegarem Infinity Fabric.
                            Więc powyższe porównanie jest całkiem fair jeśli mamy decydować o tym kto jest najwydajniejszy. Oficjalne specyfikacje producentów.
                            Bo za chwile dojdziemy do porównań overclockowanych procesorów z pamięciami na ciekłym azocie, żeby 'rozstrzygnąć' kto jest szybszy.
                            Swoją drogą nigdy nie zastanawiałeś się dlaczego żadna z firm nie deklaruje oficjalnego wsparcia ich procesorów dla powiedzmy DDR4 3800?
                            No przecież 'chodzą'.
                            0
                            • Avatar użytkownika Yosar
                              Yosar
                              @DeviLevi Jeśli intel ustalił takie ceny w stosunku do cen Ryzenów, to możesz być pewien, że te procesory nie są warte więcej i tyle co Ryzeny. Jakby mieli kilera w ręku to by go wycenili jak kilera. W sumie to nawet ciężko je porównać do Ryzenów z powodu tej dziwacznej architektury.
                              Niby 12900K i 5900X to oba mają 16 rdzeni. No ale nie bardzo, bo 8 z tych rdzeni w intelu jest jakieś takie wybrakowane (mniejsze zegary, brak HT itd).
                              To samo 12700K. Niby 12 rdzeni. Ale w stosunku do 5900X (też 12 rdfzeni) 4 z nich jakieś takie wybrakowane. I tak dalej.
                              0
                              • Avatar użytkownika Yosar
                                Yosar
                                @Wojciech Spychała Wręcz przeciwnie. Zachowują się źle. Nawet na W11. Intel przyznał że źle wspólpracuje np. z DRM Denuvo. Co gorsza e-cory są odbierane jako nowa instancja gry i potrafi Denuvo zablokować komuś dostęp do takich gier na stałe. Totalnie. Intel podał że to około 20 gier. A i tak pewnie wszystkich nie przetestowali. Także jak ludzie kupią te procesory i zaczną ich używać to się dopiero okaże co z tego działa, a co nie. I różne mogą być przygody. Na pewno nie wyjdzie to w pierwszych recenzjach bo nikt nie będzie testował tylu programów. Ale im dalej w las tym więcej drzew będzie.
                                I mam przeczucie że będziecie mieli sporo nowych newsów o kolejnych przygodach właścicieli Alder Lake.
                                -1
                                • Avatar użytkownika Yosar
                                  Yosar
                                  @szymcio30 Dramat jest większy niż myślisz. Intel przyznał że te testy robił na niespatchowanym W11 dla Ryzenów. Poodejmuj teraz średnio 15%.
                                  Ale to nie koniec złych wiadomości. Testy dla 12900K były robione dla TDP ustawionego na 241 W (PL1=PL2). Ryzen był na fabrycznych nastawach (105 W). Nawet PBO nie było włączone. To akurat jest drobnym druczkiem na tych slajdach. Ale redaktor nie czyta nawet slajdów które wkleja.
                                  Innymi słowy nawet sam intel mimo tych slajdów nie ogłasza że ma najlepszy gamingowy procesor. Jakby go mieli to zapewniam, że nie omieszkali by odpowiedniego slajdu przygotować.
                                  A.. i 5950 nie jest często wcale najszybszym procesorem w grach od AMD. Tutaj często 5800X z 5900X potrafi zostawić go w tyle. Zegar w wydajności gamingowej procesorów AMD nie jest aż tak ważny.
                                  A.. no i pomyśl sobie teraz że w pierwszym kwartale 2022 wyjdą odświeżone Ryzeny z dodatkową pamięcią cache. W testach AMD przy 4 GHz zegarze średnio kolejne 15% lepsze niż bieżąca generacja Zen 3.
                                  Yep... nie, nie wydaje się żeby intel odzyskał gamingowy tron. Poczekajmy do tego 4 listopada, ale te slajdy nie powinny napawać jakiś potwornym optymizmem tych co mieli chrapkę na Alder Lake, a są graczami głównie.
                                  5
                                  • Avatar użytkownika Yosar
                                    Yosar
                                    @Ciekawski_
                                    W skrócie mówiąc zupełnie nie. E-core były niepodfkręcone na 3.7 GHz co potwierdzone jest w żródle z którego rżnąl purepc, czyli
                                    https://videocardz.com/newz/intel-core-i9-12900k-overclocked-to-5-2-ghz-on-all-performance-cores-reportedly-consumes-330w-of-power

                                    To achieve these results, the leaker overclocked all Golden Cove/Performance/Big cores to 5.2 GHz while he kept Gracemont/Efficient/Atom/Small cores at stock 3.7 GHz. Intel 12th Gen Core series features a new overclocking setting that will allow users to modify the clocks for each type of core, in this case only the big cores were modified.

                                    To tylko jeszcze jeden kamyczek do totalnej amatorki purepc. Kolesie to zbieranina fanboi bez wiedzy.
                                    Ktokolwiek uwierzył purepc, że 8 rdzeni nawet podkręcone będzie tak wydajne w MT jak 16 rdzeni Zen 3 jest naiwny i nie zna się na sprzęcie.
                                    Fabryczny overclocking zapewnia 5 GHz na P-corach, 200 MHz nie robi takiej różnicy (z wyjątkiem energii, ta skacze o jakieś 80-90 W co zrozumiałe bo układ jest daleko poza swoją krzywą efektywności). Szczególnie na tylko 8 rdzeniach.
                                    Porównywanie wyników ST nie ma sensu jak nie wiadomo w jakich warunkach i z jakich sampli zostały uzyskane.

                                    PS BTW 200 MHz to nie jest nawet 5% przyrostu prędkości do 5GHz. Oczekiwanie cudów z tego to fantazjowanie na jawie.
                                    PS 2 To na co się powołujesz to nie wpis autora testu tylko standardowa siekanka na twitterze, autorem testu jest niejaki Bilibili jak można w powyższym artykule dowiedzieć. Przy okazji wykonał porównania do podkręconego chyba 5950X i oczywiście ten zjadł w MT ten procek intela z przystawką. I w CPU-Z i w CBR23. Zapewne ciągnąc o połowę mniej energii.
                                    PS3 Z ocenami co zmasakrowało co to bym się wstrzymał do premiery. Rocket Lake też masakrował w takim GB Zen 3, a jak się skończyło to wszysycy wiemy.
                                    0
                                    • Avatar użytkownika Yosar
                                      Yosar
                                      @kitamo Tiaaa.. tylko 8 rdzeni chodziło na 3.7 GHz i bez HT/SMT, co siłą rzeczy nie generuje takie zużycia prądu. Największy udział w tych 330 W ma 8 (!) normalnych rdzeni i 5.2 GHz. I jak to porównać, że procesor AMD ma 16 normalnych rdzeni i nawet podkręcony żre dużo mniej to jest się czym załamać. Efektywność energetyczna tych nowych rdzeni GC intela jest żałosna. Saphire Rapids w serwerach na GC zapowiada się na totalną porażkę.
                                      0
                                      • Avatar użytkownika Yosar
                                        Yosar
                                        No chyba nie jestem pod wrażeniem. Tutaj wynik mojego 'tylko' 12 rdzeniowego 5900X w TimeSpy. https://www.3dmark.com/spy/20893284
                                        Przeszło 15700 punktów. Wobec tych 17900 strata 2200. Czyli najwyższy model nowego intela ma 33% więcej rdzeni i tylko 14% procent wjecej wydajności.
                                        Ale to nawet nie to. Ten wynik nowego intela jest na pamięci DDR4 3866/14 czyli super wysoko podkreconej z potwornie niską latencją. Mój na 3800/14-15-15 + PBO (które w na płytach intela jest włączone z defaultu, tzn podkręcenie procesorów jest włączone nie PBO, bo u intela to się nazywa i działa trochę inaczej). Też podkręcona, ale nie tak wysoko, bo podkręcić pamięć na 3866/14 no nie jest łatwo, chyba że ktoś kupi taką fabrycznie podkęconą.
                                        Innymi słowy jest to wynik z podkręconego systemu Alder-Lake. Podkręcone systemy z R9 5950X pewnie będą lepsze niż powyższy skoro ja z 4 rdzeniami mniej ocieram się o ten wynik.
                                        Bo mój 5900X nie jest znowu jakoś wybitnie podkręcalny. Coś tam da się3 z niego wycisnąć, ale na loterii na pewno nie wygrałem.
                                        A za rogiem czai się Zen 3D, który w normalnych benchmarkach nie będzie miał jakoś lepszych wyników (podejrzewam że będzie różnica jak między 3900X a 3900XT), ale w grach przeważnie będzie miał już konkretny przyrost.
                                        Czuje że w normalnych benchmarkach nowa generacja intela dojdzie AMD, albo nawet w niższych modelach przegoni, ale w grach znowu nie będzie różowo. Powtórka z Rocket Lake która w benchmarkach Geekbencha wyglądała mocarnie, a potem okazało się, że tylko tam?
                                        0
                                        • Avatar użytkownika Yosar
                                          Yosar
                                          @Ad_Lou Nie bardzo. Klucz dostajesz od retailera, nie od AMD. Klucz nie jest wydrukowany na sprzęcie czy gdziekolwiek. Do tego nie jest to klucz do gry, tylko klucz do validatora AMD. Tak czy owak górnicy nie kupują swoich kart u retailerów, więc nie dostaną nawet kluczy do do tego validatora.
                                          Nie zdziwiłbym się też gdyby ten walidator AMD miał dodatkowe zabezpieczenia, żeby np nie można było przy pomocy jednego procesora zwalidować sobie 10 kart. Zdziwiłbym się gdyby nie miał, bio AMD dość pilnuje żeby np wygasłe klucze nie były obsługiwane, więc muszą mieć jakąś bazę danych kluczy do walidotora. Miałem wygasły klucz z poprzedniej promocji za 5900X. Wygasły nie z mojej winy, po prostu jak wszyscy pamiętają trzeba było na swoje procesory chwilę poczekać zaraz po premierze Zen 3. Wklepanie klucza który dostałem od retailera już po wygaśnięciu promocji oczywiście skutkowało odrzuceniem go ze względu na wygaśnięcie. Ale mój retailer miał umowę z AMD, że takie wygaśnięte klucze będą obsługiwane i na nią się powołałem w supporcie AMD. Uwzględnili to i wydłużyli mi ręcznie na parę dni ważność tego klucza, żebym mógł go wykorzystać. Wcale nie wysyłali nowego, czy coś w tym stylu. Co raczej oznacza że mieli ściśle określoną pulę tych kluczy z którytch się trzeba było rozliczyć.
                                          Ta przydługa opowiastka jest tylko po to, żeby uzmysłowić że AMD dość się zabezpiecza przed wykorzystaniem takich promocji do czegokolwiek. To pewnie dlatego te klucze są dawane przez retailerów. Trzeba też pamiętać, że jest tu druga strona czyli Ubisoft, który na pewno chce jak najmniej rozdawać darmowych kluczy, bo ich biznes to sprzedwanie tych gier, a nie rozdawanie. A to, że Ubisoft potrafi być upierdliwy w kwestii zabezpieczeń to chyba wiadome. Także jeśli cały mechanizm byłby łatwo podatny na nadużycia to Ubisoft by na pewno nie wszedł w taką promocję.
                                          A wszedł i to drugi raz.
                                          0
                                          • Avatar użytkownika Yosar
                                            Yosar
                                            @quadroxxl
                                            Akurat karty graficzne AMD są konkurencyjne wobec nVidii. 6900 XT jest lepszy w rasterze od RTX 3090 w 1080p/1440p i ciut gorszy w 4k. W ray-tracingu lepsze są karty nVidii, głównie z powodu sponsorowania wielu tytułów przez nVidię, więc optymalizacja idzie w ich kierunku. Pomijam kwestię DLSS czy FSR bo to nie ma nic wspólnego z wydajnością sprzętową kart.
                                            Tak czy owak AMD potrzebowało 1 generacji (RDNA to taka pól-generacja bo AMD nie starało się nawet wydać najwydajniejszych układów, wystarczy porównać liczbę CU RDNA vs RDNA2) żeby dogonić nVidię. To raczej testament tego jak po serii Maxwell nVidia przyhamowała z postępem. Skupiając się na dodatkach pokroju tensor corów.
                                            A jeśli plotki o modułowej budowie kolejnej generacji RDNA3 się potwierdzą, to nVidia nie ma czym odpowiedzieć w tym momencie. Będzie to rzeczywistość w której karty AMD są bezdyskusyjnie lepsze we wszystkim. Obawiam się, że w cenie niestety też. Ale to inna para kaloszy.
                                            0