Internet

Google aktualizuje Pingwina - algorytm wyszukiwarki w wersji 3.0

Wojciech Kulik | Redaktor serwisu benchmark.pl
10 komentarzy Dyskutuj z nami

Strony wtórne i oferujące ogromne liczby, ale marnych materiałów mogą mocno spaść, podczas gdy serwisy stawiające na jakość a nie ilość - podskoczą.

Google Pingwin

Algorytm najpopularniejszej na świecie wyszukiwarki internetowej został zaktualizowany. Firma Google zaktualizowała Penguina do wersji 3.0.

„Pingwin” to algorytm wyszukiwarki internetowej Google, którego celem jest filtrowanie wyników w taki sposób, by możliwie najmniej z nich było spamem, a jak najwięcej – wartościowymi i unikalnymi treściami. Wersja 3.0, która oficjalnie została już wdrożona, zmienia nieco sposób oceny jakości stron. W rezultacie strony wtórne i oferujące ogromne liczby, ale marnych materiałów mogą mocno spaść, podczas gdy serwisy stawiające na jakość a nie ilość podskoczą i to znacząco.

Choć Penguin 3.0 jest już wdrażany, na finalne efekty możemy poczekać nawet „kilka tygodni” – ufając firmie Google. Konkretne informacje na temat tego co zostało zmodyfikowane lub odświeżone nie zostały jednak podane.

Warto zwrócić uwagę na jeszcze jeden szczegół – otóż jest to pierwsza aktualizacja algorytmu Penguin od ponad roku (poprzednia – do wersji 2.1 – miała miejsce 4 października 2013 roku). Sam system został natomiast wprowadzony w kwietniu 2012 roku, aby przeciwdziałać rozprzestrzenianiu się spamu i bezwartościowych treści. Na razie efekty są jak najbardziej pozytywne.

Źródło: SearchEngineLand, SearchCreative

Komentarze

10
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    mardun
    6
    Niemożliwe, jak najmniej spamem ?
    Po wpisaniu np. "Samsung UE50H6400" pojawia się 10 stron gównianych sklepów, ceneów itp. gówien. Powinien być przycisk do wywalenia wszelkiego komercyjnego syfu z wyników, tak by można było zapoznać się z opiniami jakiegoś prywatnego użytkownika.
  • avatar
    yendrek
    3
    Dopóki funkcjonuje pozycjonowanie stron, to "filtrowanie spamu" jakoś niespecjalnie mnie kręci w przypadku www.

    Poza tym co to spam na www, kto ustala kryteria zaliczenia strony/blogu itp do bezwartościowych treści ? Kto z was korzystając z "wuja google" na pierwszych 3 stronach znalazł rzeczywiście bezwartościowy chłam, a kto kontynuował przeglądanie wyników szukania po 3 stronach ? Cały ten nowy engine zalatuje mi kolejnym przekrętem googli.