
Poprawiła wydajność starych kart graficznych. Wystarczył jeden sprytny trik
Masz starą kartę graficzną, która zaczyna się dławić w nowych grach? Nowy trik od inżynierki Linuksa pokazuje, że problemem nie zawsze jest sprzęt – czasem wystarczy lepiej zarządzać pamięcią VRAM, by wycisnąć z GPU znacznie więcej.
Współczesne gry coraz mocniej dociskają sprzęt. Ogromne światy, tekstury w wysokiej rozdzielczości i ray tracing sprawiają, że pamięć VRAM kończy się szybciej niż kiedyś. Nawet karty z 8 GB zaczynają mieć pod górkę, a modele z 4 GB już okazują się niewystarczające.
Wygląda na to, że wszystko zależy od optymalizacji systemu. Problem polega nie tylko na tym, ile VRAM masz, ale jak jest on wykorzystywany.
Wpadła na sprytny pomysł
Tu wchodzi rozwiązanie zaproponowane przez Natalie Vock z Valve. Zamiast zmniejszać zużycie VRAM, jej podejście polega na… lepszym zarządzaniu pamięcią. Nowe poprawki do systemu Linux wprowadzają prostą zasadę – to gra ma absolutny priorytet dostępu do VRAM. W praktyce oznacza to, że jeśli pamięć się kończy, to nie gra jest "wyrzucana” do wolniejszej pamięci RAM, a zamiast tego system przenosi mniej ważne procesy w tle.
Wcześniej bywało absurdalnie – gra mogła tracić VRAM na rzecz przeglądarki działającej w tle. Efekt? spadki FPS i mikroprzycięcia.
Kluczowym elementem jest narzędzie o nazwie dmemcg-booster. Pozwala ono systemowi "zrozumieć”, która aplikacja jest najważniejsza. Do tego dochodzi plasma-foreground-booster, który automatycznie wskazuje aktywne okno (czyli grę). Efekt jest taki, że gra dostaje maksymalny możliwy dostęp do VRAM, a reszta musi się dostosować.
Testy na Radeon RX 6500 XT – czy 4 GB ma jeszcze sens?
YouTuber NJ Tech postanowił sprawdzić, czy to rozwiązanie pomoże słabszym kartom. Na warsztat trafił stary komptuer z procesorem AMD Ryzen 5 5600X, 16 GB RAM i kartą Radeon RX 6500 XT (wyposażoną w skromne z 4 GB VRAM).
Testy przeprowadzono w kilku nowych grach – i wyniki okazały się… zaskakujące. Największy skok odnotowano w Alan Wake II, bo średni FPS wzrósł z 14 do 41, a minimalne FPS (1% low) podskoczyły z 12 do 28. To niemal trzykrotna poprawa – różnica między “niegrywalne” a "da się grać”. W innych tytułach, jak Resident Evil: Requiem czy Silent Hill zyski były mniejsze, ale zauważalne.
| Gra | Bez optymalizacji (AVG / 1% Low) | Z optymalizacją (AVG / 1% Low) | Poprawa (AVG / 1% Low) |
| Alan Wake II | 14 / 12 fps | 41 / 28 fps | +193% / +133% |
| Resident Evil: Requiem | 67 / 36 fps | 68 / 56 fps | +1% / +56% |
| Silent Hill f | 47 / 34 fps | 50 / 35 fps | +6% / +3% |
| Hogwarts Legacy | 60 / 45 fps | 61 / 47 fps | +2% / +4% |
| Death Stranding 2 | 34 / 28 fps | 34 / 28 fps | 0% / 0% |
| Cyberpunk 2077 | 49 / 40 fps | 49 / 40 fps | 0% / 0% |
Warto jednak zaznaczyć, że część gier nie wykazała większej różnicy – co pokazuje, że to nie jest magiczna różdżka na wszystko.
Specyfikacja karty pozostaje ta sama
Trzeba jasno powiedzieć – to rozwiązanie nie “dodaje” pamięci karcie graficznej. Jeśli gra potrzebuje 6 GB VRAM, karta ma tylko 4 GB, to brakujące 2 GB i tak trafią do RAM. Różnica polega na tym, że gra nie konkuruje z procesami w tle, a dostępne 4 GB są wykorzystywane maksymalnie efektywnie. I to właśnie robi największą różnicę w odczuwalnej płynności.
To podejście pokazuje coś ważnego: wydajność to nie tylko osiągi sprzętu, ale też inteligentne zarządzanie zasobami. Dla graczy oznacza to, że nawet starsze GPU mogą jeszcze dostać drugie życie. Szczególnie w świecie Linuksa, gdzie takie eksperymenty trafiają do systemu szybciej niż w zamkniętych ekosystemach.




Komentarze
0Nie dodano jeszcze komentarzy. Bądź pierwszy!