Mam pytanie do fanów : Ktoś z Was wie może, czy Blizz będzie sprzedawać zestawy D3 + dodatek w jakiejś okazyjnej cenie ? Człowiek wiecznie w pracy siedzi i nie jest na bieżąco z tematem, a kocham wcześniejsze edycje Diabełka. 3jkę sobie odpuściłem po falach krytyki i poniekąd przez słodki, przypominający Warcrafta wygląd. Teraz jednak skoro widzę, że przy najnowszych poprawkach jest dobrze, a dodatek tuż za rogiem, zapowiadający się interesująco to może warto teraz kupić komplet ? Jeśli coś wiecie, proszę dajcie znać :)
Bardzo interesująca konstrukcja z uwagi na złącze optyczne, co nie jest codziennością niestety w micro platformach, a jest jednym z decydujących czynników przy kupnie takowej. Przy budowie HTPC, bez optyka ani rusz :) Dałbym to na plus. Robią takie pod AMD ?
Intel robi świetne CPU, ale nie można zapominać, że nie posiada tak jak AMD, molocha jakim było ATI. Wystarczyłoby, aby AMD 'wrzuciło' do swoich APU coś pokroju procesora Hawaii. Zdetronizowałoby to Intela na polu GPU+CPU. Dlaczego tego nie zrobi? Każda firma musi zarabiać, a lepszym sposobem na to jest ciągłe pokazywanie, że ma się lepszą ofertę niż konkurencja niż jednorazowy triumf. Odbija się to także na rynku samych CPU, świadomość klienta jest podsycana pozytywnymi skojarzeniami na temat marki AMD, zaczerpniętymi z doświadczeń z APU. AMD czerpie garściami z faktu, że Intel nie może nawiązać z nimi walki w segmencie GPU+CPU. Tak samo Intel na polu CPU. Wypuszcza na rynek konstrukcje o klika procent szybsze od poprzedników. Dlaczego? Z tego samego powodu co AMD w przypadku APU. Konkurent nie jest w stanie nawiązać walki.
Posłuchaj. AMD łączy średni segment CPU z niskim segmentem GPU w swoich konstrukcjach APU. Wyobraź sobie połączenie ich topowego FXa z Hawii XT. Oczywiście bez chłodzenia cieczą w standardzie nie obeszłoby się, ale pod kątem inżynieryjnym są to w stanie zrobić. Natomiast Intel niema do zaoferowania w tym segmencie nic. Intel do swoich konstrukcji wypuszcza maksimum jakie jest w stanie opracować, AMD wybiera niską półkę, która i tak jest od konkurenta szybsza. Nadal obstajesz przy swojej tezie ?
Co do dna Intela, źle mnie zrozumiałeś. Nokia nie była na dnie, w chwili, gdy światem zawładnęły smartfony. Upadła, później, bo przegapiła ową rewolucję. Z uwagi, że Intel nie posiada nic konkretnego do zaoferowania w obecnie forsowanym trendzie zmierza w tym samym kierunku co Nokia, ku powolnemu spychaniu z rynku. To, że oferuje najwydajniejsze obecnie CPU niewiele zda się, w chwili, gdy rynek całkowicie opanują hybrydy CPU+GPU
0
Gonzo
Konsola stoi w prawie każdym domu, a dekada w przemyśle elektronicznym to wręcz wieczność. Tu już nawet nie trzeba rozgraniczać jaka, bo AMD dostarczać będzie hardware do obu wiodących marek. Co do Twojego GPU, żadne nie jest w stanie konkurować z nowościami AMD, Czy NV, to, że radzi sobie w 2D i w bardzo ograniczonym zakresie wydajnościowym w 3D, nie czyni GPU Intela konkurentem. Procesory graficzne Intela są na dziś dzień marginesem porównywalnym swego czasu do S3. Jedyne co mogłoby uratować Intela w tej dziedzinie to kupno Nvidii, ale na to się raczej nie zanosi.Intel jest dzisiaj jak Nokia swego czasu. Produkuje świetne rzeczy, ich procesory są najwydajniejsze, ale zaspał, tak jak Nokia z rewolucją ze smartfone. Jeżeli nie rozwinie GPU+ CPU z czasem zostanie zepchnięty do roli producenta rozwiązań serwerowych. Poważne tarapaty wiszą nad nim i to fakt, o ile nic się w ich strukturach nie zmieni. Co do porażki, a czym innym było forsowanie nieudanego Pentium4. W chwili, gdy konkurencja wprowadziła 64bitowe procesory, technologicznie lepsze i wydajniejsze Intel śrubował swoje megaherce. Wyciągnął później z tego wnioski w postaci procesorów Core, dlatego może i teraz coś robi w tym kierunku. Jeśli nie jego przyszłość stoi pod znakiem zapytania. Nokia też kiedyś wydawała się niezatapialna, a skończyła w rękach Microsoftu. Wystarczyło zaspać raz. Intel właśnie robi to teraz.
0
Gonzo
AMD wygrywając przetargi na dostarczenie architektury do dwóch najpopularniejszych konsol obecnego i zapewne połowy kolejnego dziesięciolecia, czyli PS4 i Xbox One wygrało życie, że tak powiem. Ze strategicznego punktu widzenia jest to nawet lepszy ruch niż zakup ATI, choć bez tego nie mogłoby teraz królować w dziedzinie konsol. AMD dobrze wie co robi. Biorąc pod uwagę, że wcześniejsza generacja konsol 'żyła' przez 10 lat, można przypuszczać, że i obecna tak długo zabawi na rynku. Biorąc pod uwagę fakt, że wszystkie nowe multi platformowe gry będą dostosowywane do ich architektury Intel może znaleźć się w poważnych tarapatach, przy których ich rynkowa porażka z czasów wydania przez AMD Athlona 64 będzie niczym. Pożyjemy zobaczymy, jednak pewnym jest, że Intel musi wzmocnić dział zajmujący się projektowaniem GPU, bo przy obecnym poziomie rozwoju i coraz większej popularności APU jest daleko w lesie. AMD jeszcze nas zaskoczy, to tylko kwestia czasu :)
Polska z najniższym abonamentem Spotify w Europie
35 komentarzyDyskutuj z nami!Akcesoria do nowego iPhone'a już powstają - będzie zdecydowanie większy ekran
27 komentarzyDyskutuj z nami!Zamknięto dom aukcyjny Diablo III
43 komentarzyDyskutuj z nami!ASUS Z87I-Pro – funkcjonalność w rozmiarze mini-ITX
20 komentarzyDyskutuj z nami!Intel Haswell - od Pentium do Core i5
43 komentarzyDyskutuj z nami!Verbatim wchodzi na rynek toreb podróżnych - 7 wypasionych modeli
6 komentarzyDyskutuj z nami!Klasyczny Snake w MGS V: Ground Zeroes tylko na PlayStation - wideo
11 komentarzyDyskutuj z nami!Przyszły rok bez nowych procesorów AMD FX
67 komentarzyDyskutuj z nami!Co do dna Intela, źle mnie zrozumiałeś. Nokia nie była na dnie, w chwili, gdy światem zawładnęły smartfony. Upadła, później, bo przegapiła ową rewolucję. Z uwagi, że Intel nie posiada nic konkretnego do zaoferowania w obecnie forsowanym trendzie zmierza w tym samym kierunku co Nokia, ku powolnemu spychaniu z rynku. To, że oferuje najwydajniejsze obecnie CPU niewiele zda się, w chwili, gdy rynek całkowicie opanują hybrydy CPU+GPU
Laptop Eurocom Panther 4.0 - teraz też z układami Intel Ivy Bridge-E
12 komentarzyDyskutuj z nami!Batman: Arkham Origins - optymalne karty graficzne
27 komentarzyDyskutuj z nami!