Jednym z najczęstszych mitów dotyczących pozycjonowania stron jest przekonanie, że wyszukiwarka nagradza strony, na których często dochodzi do publikacji treści. Jak wspomniałem w błędach SEO, to nie ilość a raczej jakość artykułów i poszczególnych podstron jest tym co determinuję autorytet domeny i średnią pozycję wszystkich fraz.
Dlatego jedną z najnowszych propozycji na pozycjonowanie bloga i stron firmowych jest eliminacja nadmiarowych podstron oraz wpisów na blogu, które że tak powiem delikatnie… nie robią furory. Podejście takie ma wiele zalet i to nie tylko związanych stricte z pozycjonowaniem.
Kasowanie podstron ma wiele zalet, które w tym wpisie postaram się pokrótce omówić. Na początku sprawdźmy czym w ogóle są nadmiarowe podstrony i jakie korzyści wiążą się z ich usuwaniem.
Prawda jest jak poezja. Większość jej nienawidzi.
Mark Twain
Jakie są rodzaje nadmiarowych podstron?
Nadmiarowe podstrony mogą być np. podobnymi kategoriami, nadmiarowymi tagami o niskiej jakości. Nadmiarowy tag to nic innego jak coś w rodzaju synonimu innego tagu. Dodając dwa tagi do identycznego zestawu podstron zaburzamy „filozofię” jaka kryje się za wdrożeniem tagów czy to na blogu czy w sklepie internetowym.
Brian Dean (uznany specjalista SEO, którego mocno szanuję) nazwał takie strony „stronami Zombie” (ang. Zombie Pages).
Drugim rodzajem nadmiarowych podstron jest paginacja i stosunkowo mała ilość elementów na jednej takiej podstronie. Powoduje to przyrost „sztucznych” podstron, pogarszają one wygodę i doświadczenia użytkownika oraz zmuszają roboty wyszukiwarek do przeglądania sporej ilości podstron, która nie niesie przyrostu informacji. Nie ułatwia to indeksacji co może niekorzystnie wpływać na SEO.
Wreszcie słaby artykuł. Jest to taki post, który nie ściąga za wiele ruchu, widać, że nie jest chętnie czytany i w ogóle po jakimś czasie dochodzimy do wniosku, że nie niesie szczególnej wartości dla naszego audytorium. Zaś w sklepie internetowym, może to być produkt, który np. przez kilka lat nie został kupiony 😉
Nieaktualny wpis– odpowiedz sobie sam, po co utrzymywać w nieskończoność artykuł o promocji, której już nie ma albo o jakimś wydarzeniu które odbyło się dawno temu?
Zamiast tworzyć kolejne i podobne artykuły na ten sam temat, po prostu zaktualizuj obecne posty. Tym bardziej, jeżeli od publikacji minął dłuższy kawałek czasu. Innymi słowy: lepiej opublikować jeden konkretny artykułu niż kilka będące czymś w rodzaju semantycznego spamu.
Najgorszym typem martwych stron są podstrony zawierające wyniki wyszukiwania z wewnętrznej przeglądarki treści. Pamiętaj aby szablon takiej podstrony miał tag noindex. Indeksowanie podstron z wynikami wyszukiwania jest praktyką szczególnie niebezpieczną z punktu widzenia SEO.
Usuwanie „cienkich” artykułów pod kątem UX
Chcąc być konsekwentnym w tym o czym piszę, doświadczenia użytkownika (ang. user experience) wymienię jako pierwsze. Czytelnik bloga, który widzi nie najlepszy artykuł zwyczajnie zniechęca się do czytania czegokolwiek u nas i w ten sposób my jako autorzy bloga tracimy autorytet.
Pisanie o oczywistych sprawach, dotykanie płytkich tematów lub pisanie ciągle o tym samym pogarsza nasz wizerunek jako eksperta a wyszukiwarka (której celem jest wychwycenie najbardziej wartościowych wyników) i wyselekcjonowanie najbardziej zaufanych domen związanych z daną tematyką coraz rzadziej nam „ufa” i z coraz większą dozą niepewności podchodzi do każdego kolejnego artykułu jaki opublikujemy.
Niskiej jakości artykuły można łatwo znaleźć na blogach firmowych, których prowadzenie jest motywowane wyłączenie pozycjonowaniem i powiększaniem lejka przez który dociera ruch. Przeceniana wartość regularności i ilości artykułów niejako oślepia autora, który zamiast na jakości zaczyna się skupiać na ich ilości.
Usuwanie artykułów pod kątem SEO
Tworząc podobne artykuły z pokrewnymi lub analogicznymi tytułami, może dochodzić do tzw. kanibalizacji słów kluczowych. Ma to miejsce wtedy kiedy wyszukiwarce trudno jest rozstrzygnąć, którą podstronę wyświetlić użytkownikowi. Rzadko wyświetla dwa lub więcej wyników (najczęściej wybiera jeden z nich) przez co ten drugi jest niewidoczny w wynikach wyszukiwarki.
Zwielokrotnione tagi czy kategorie mogą doprowadzać do fenomenu o nazwie „treść powielona” (ang. duplicate content). Zjawisko to obniża autorytet naszego serwisu na poziomie algorytmu. W dobrych praktykach dla webamsterów istnieje zapis aby za wszelką cenę unikać sytuacji, w której to dwa różne adresy URL (które wyszukiwarka może indeksować) zwracały identyczną lub bardzo podobną treść.
Usuwanie wpisów pod kątem produktywności
Każdy kolejny artykuł na blogu czy dodany produkt w sklepie to poświęcony czas, którego nie da się odzyskać. Jeżeli już inwestujemy czas na prowadzenie bloga czy katalogu produktów racjonalnym działaniem jest maksymalizacja jego ROI (zwrotu z inwestycji) poprzez publikację naprawdę dobrego i wartościowego artykułu, który będzie chętnie czytany przez czytelników i który podwyższy nam autorytet na poziomie algorytmu.
Jak już nie jednokrotnie wspominałem, starsze wpisy warto aktualizować, a szczególnie te, które można zaliczyć do tzw. evergreen content (czyli treści które z natury tematyki są aktualne przez bardzo długi czas). Mniejszą ilość artykułów łatwiej jest utrzymywać i chociażby linkować wewnętrznie istotne frazy, które można doprecyzować kolejnym artykułem.
Usuwanie wpisów pod kątem oszczędności zasobów
Z drugiej strony, kolejne posty to dodatkowe rekordy w tabeli wp_posts i wp_postmeta. Im więcej tych rekordów tym system działa wolniej. Oczywiście, nie doświadczymy żadnej różnicy pomiędzy bazą złożoną z 50 czy 150 postów (i wspominam tutaj o tym z przymrużeniem oka) ale jeżeli skala zmusza do myślenia o nich w tysiącach to już można doświadczyć odczuwalnych spadków wydajności w najtańszych opcjach hostingowych. Nie wspominam o obciążeniu jakim poddawany jest serwer przy indeksowaniu oraz np. generowaniu map czy wprowadzania masowych aktualizacji.
Jak zrobić to dobrze?
Tak jak już wspominałem. Usuwanie jakichkolwiek podstron, które są indeksowane w wyszukiwarce doprowadza do błędów indeksowania, które pogarszają pozycje oraz wygodę użytkowników. Po jakimkolwiek usuwaniu podstron przekieruj za pomocą wpisów w .htaccess adresy URL usuniętych podstron na inne – najlepiej powiązane z tematyką. O tym jak naprawić i nie dopuścić do błędów indeksowania możesz przeczytać w tym artykule: Jak naprawić błędy indeksowania.
Efekty usunięcia nadmiarowych tagów
Jedną z optymalizacji polegającej na bezwzględnym wycięciu z serwisu podstron, które były najmniej popularne przeprowadziłem na jednej ze stron klientów na początku grudnia. 2018. Jak widać, serwis nie ucierpiał:

Nie twierdzę przy tym, że obserwowany wzrost jest wynikiem samej optymalizacji, wpływ mogły mieć inne działania takie jak
- ogólne przyspieszanie strony,
- optymalizacja linkowania wewnętrznego
- bezpośrednie zdobycie wartościowych linków z zewnątrz
- aktualizacja treści podstron z ofertą i blogu firmowym
Zalety usuwania podstron niskiej jakości
- większy autorytet domeny (wyższa średnia pozycja wszystkich fraz jakie powodują, że strona się wyświetla w SERP),
- budowanie zaufania i autorytetu eksperta na podstawie publikowanych treści (a nie chwilowych skokach ruchu i pozycji w wyszukiwarce),
- lepsza moc linków wewnętrznych pochodzących z każdej i do każdej podstrony,
- łatwiejsze pozycjonowanie artykułów na bardziej wartościowe frazy.
Podsumowanie
W czasach content-marketingu najlepszą rzeczą jaka może być to paradoksalnie usunięcie słabego artykułu. Nie pierwszy raz spotykamy się z sytuacją, w której zachowanie sprzeczne z popularnymi nie raz błędnymi przekonaniami dotyczącymi pozycjonowania stron internetowych wpływa pozytywnie – zarówno na UX, SEO oraz ogólną kondycję serwisu internetowego.
Źródła
https://www.seroundtable.com/google-fewer-better-quality-pages-leads-to-higher-quality-traffic-22044.html dostępne: kwiecień 2019
Odpowiedz lub skomentuj