Web Design Blog / Web:

Optymalizacja stron www

Konieczność optymalizacji stron www bierze się stąd, że Internet się rozwija z powodu rosnących potrzeb biznesu i możliwości jakie daje technologia IT. Każda branża jest specyficzna a każda firma ma do zaoferowania produkty i usługi które trafiają do konkretnych klientów. To stawia nowe wymagania dla przeglądarek, wyszukiwarek i twórców stron internetowych.

Już na samym początku pragnę zasygnalizować, że to właśnie relacja z klientami powinna być głównym bodźcem skłaniającym nas do ciągłego udoskonalania stron www.

Oczywiście nie odkryję Ameryki, jeżeli dodam, że do tego dochodzą zmieniające się sztywne standardy które wychodzą bezpośrednio od twórców wyszukiwarek, mowa tu przede wszystkim o zasadach dobrych praktyk, które Google publikuje na swoich stronach dla webmasterów. Strona, która dwa lata temu była wzorem do naśladowania byłaby dziś co najwyżej wystarczająca po przeprowadzeniu solidnego testu jakościowego.

To samo jest z klientami od strony ich oczekiwań i tego w jaki sposób korzystają z Internetu. Jeszcze z 5 lat temu przeglądanie Internetu na telefonie komórkowym było dość rzadką praktyką – musiała istnieć ku temu sensowna konieczność (np. sprawdzenie rozkładu zajęć lub w przypadku pobytu na wakacjach sprawdzenie ważnych adresów). Obecnie większość internautów korzysta ze swoich komórek z wyświetlaczem 4K stając się dominującą grupą przeglądającą zasoby internetu. Obserwując ewoluującą technologię możemy wysnuć wniosek, że tak naprawdę to dopiero początek zmian.

Można by zatem powiedzieć, że przeznaczeniem stron internetowych jest ich ciągła ewolucja. Tak, zarówno od strony zawartości jak i tej czysto technicznej.

Optymalizacja stron internetowych a w zasadzie optymalizowanie (bo jest to proces a nie jednorazowa procedura) to ta część web designu, której należy właśnie poświęcić najwięcej uwagi.

Jak być powinno?

Ze stroną dobrze zoptymalizowaną mamy do czynienia wtedy gdy strona jest użyteczna dla użytkownika dzięki temu, że: działa szybko, treść została dobrze powiązana i kategoryzowana, zastosowano konsekwentną strukturę wszystkich podstron i spełniono obecnie obowiązujące zasady tzw. dobrych praktyk dla webmasterów. Te „dobre praktyki” to tak naprawdę kodeks, którego powinien się trzymać każdy kto ma wpływ na kształt i budowę stron internetowych.

Po co?

To często pomijany fakt ale tak naprawdę chodzi o stworzenie idealnego ekosystemu którego składnikami są: biznes, web deweloperzy, wyszukiwarki internetowe, przeglądarki internetowe, urządzenia i klienci, który można uprościć do takiego diagramu.

diagram internetowy ekosystem

Każdy element w tym ekosystemie ma swój cel, funkcję do spełnienia a także wpływ na sąsiadujące elementy.

Korzyści

Po pierwsze: zadowolenie klientów; po drugie: strona wyżej w wynikach Google – w wyniku czego jesteśmy postrzegani jako nowoczesna firma i tym samym zwiększamy sprzedaż.

Krok 1: Hosting

Wiele zależy od tego jak jest przechowywana nasza strona i jakie oprogramowanie steruje całą infrastrukturą. Ponadto, web deweloper powinien mieć swobodę w dostępie do kluczowych ustawień serwera ograniczając ją tylko tam gdzie dotykamy kwestii bezpieczeństwa. Ostatecznie to właśnie w rękach web developera spoczywa odpowiednia konfiguracja przekierowań, decyzja dotyczącą adresów IP i cała masa szczegółów nad którymi warto popracować np. opłacalności wykorzystania CDN, subdomen i routingu.

Dlaczego to ma takie znaczenie? Otóż wszystko tak naprawdę obija się o czas odpowiedzi serwera. Chodzi o to, by wyeliminować opóźnienie pomiędzy akcją kliknięcia w link a pojawieniu się strony w przeglądarce.

Sprawdź czy masz dobry hosting: z pomocą przyjdzie narzędzie: https://tools.pingdom.com/

optymalizacja-mansfeld

Pomijamy tutaj pytanie czy klienci mają wolne czy szybkie połączenie. Powinno się podjąć wszelkie wysiłki w celu skrócenia odpowiedzi serwera i wyeliminowania tzw. wąskich gardeł.

Za dobry wynik uznajemy opóźnienie samej tylko odpowiedzi nie przekraczające 200ms.

Nawet konfiguracja serwera SQL w obrębie tego samego dostawcy może dać widoczną różnicę w prędkości wczytywania się strony. Powyżej wynik mojej strony w serwisie pingdom po migracji na XGATE SQL Performance. 95% ideału a i tak wykorzystuję lekko zmodyfikowanego WordPressa. Wynik przed migracją był o 13% gorszy. Jak widać zawsze jest coś do poprawy.

Fakt, że od dawna jest to element rankingowy Google i prędkość działania strony bezpośrednio na jej pozycję w wyszukiwarce to jedno a fakt, że opóźnienie o zaledwie pół sekundy w działaniu sklepu internetowego obniża sprzedaż o ponad 50% to drugie. To właśnie to drugie powinno nas motywować bardziej do działań związanych z udoskonalaniem strony.

Pewnie zapytasz jak rozróżnić problem związany ze złą konfiguracją od problemu wydajności infrastruktury i jakości usługi jaką wykupujemy? To bardzo proste! Przeprowadź kilka a nawet kilkanaście testów czasu odpowiedzi w powiedzmy 5 minutowych odstępach czasu w godzinach nocnych i za dnia. Jeżeli wyniki będą różne to znaczy że hosting jest po prostu niskiej jakości i warto go zmienić. To wina zbyt małej mocy obliczeniowej i pamięci RAM. Jeżeli wyniki są słabe ale za każdym razem nieznacznie różne to znaczy, że problem leży w konfiguracji serwera.

Ogólnie jestem zdania że zawsze warto kupować sprzęt który przewyższa nasze potrzeby o ok. 100%. To samo z hostingiem, dzięki temu nie musimy się martwić i dosłownie bać wzrostu wizyt na naszej stronie.

Jeżeli rozglądasz się za usługami hostingu wspierające pozycjonowanie zapytaj mnie o ofertę dla potrzeb twojej strony. Tak wiem – lokowanie pruduktu 😉 – ale już 9 lat dostarczam firmom usługi hostingowe wykorzystując do tego infrastrukturę OVH France. Do przechowywania sporych ilości danych używam usługi amazon web services ponieważ akurat tam wychodzi taniej.

Dobra optymalizacja polega też na uwaga, uwaga: lokalizacji serwera. Tworząc stronę na rynek polski adres IP powinien być polski. Ta sama zasada dotyczy obcojęzycznych serwisów. To nie oznacza że masz mieć osobny hosting dla każdej wersji językowej. Zapytaj usługodawcę czy oferuje usługę geolokalizacji adresu IP.

Optymalizacją stron www jest też poziom bezpieczeństwa serwera. Jeżeli serwer jest podatny na ataki może ulec incydentom spamerskim a to wiele z poprawną optymalizacją nie ma wspólnego.

Krok 2: Szablon

To właśnie od tego jak napisany i zaprojektowany jest szablon strony zależy najwięcej bo aż ok. 75%. Optymalizację warto skupić na tym elemencie a zwykle jest co poprawiać.

Warto zadbać o intuicyjność nawigacji oraz to jak prezentowana jest treść. Najważniejsze elementy wypadało by wyróżnić, te mniej ważne już nie. Tytuł strony, opis a nawet adres URL powinien być tak dobrany aby zachęcał do kliknięcia kiedy nasza strona pojawi się w wynikach Google.

mity o pozycjonowaniu

Zdjęcia warto opisać atrybutem alt. Przy tym wyciąć metadane ponieważ na stronie internetowej bez znaczenia są informacje dotyczące jakiego aparatu użyto to wykonania danego zdjęcia. W imię optymalizacji można poświęcić jakość ale nigdy wielkość (tę akurat warto wyliczyć lub zastosować technologię High Density) czy głębię kolorów. Nagłówki oraz istotne słowa kluczowe z punktu widzenia użytkownika należy dobrze otagować. Dzięki temu wyszukiwarka jest wstanie domyślić się jaka jest tematyka serwisu i wyświetla stronę w wynikach szukania wszystkim tym którzy są zainteresowani w danym momencie tematyką naszej witryny.

tagu html5

Znowu wraca temat prędkości strony. Jeżeli nasza strona działa naprawdę bardzo wolno jest to najprawdopodobniej skutek złego designu. Skrypty najprawdopodobniej nie zostały skompresowane, zostało ich dołączonych zbyt wiele lub zostały rozpropagowane po całym serwisie mimo, że korzystamy z nich tylko na jednej lub kilku stronach.

Stronę warto podzielić na podstrony koniec – kropka. Strony typu one page może i cieszą oko, ale możliwość ich optymalizacji jest bardzo ograniczona. Strony one-page mogą być stosowane jako strony typu landing page ale nie zbudujemy na czymś takim biznesu, którego klienci trafiają wprost z wyników organicznych.

Ze strony warto usuwać linki z błędami, tzn. takie które prowadzą donikąd.

Wreszcie, obsługa urządzeń mobilnych. Strona wykonana według założeń Responsive Web Design jest odpowiedzią na aktualne tendencje przeglądania internetu przy pomocy urządzeń mobilnych. Jest to kolejny silny element rankingowy. Strony, które nie są wykonane według tej technologii są sukcesywnie wypierane z rankingu jako nieużyteczne i bezwartościowe.

Odpowiednia wielkość tekstu powinna zapewnić komfortowe czytanie.

Kartę ze stroną w przeglądarce warto odróżniać od innych stron za pomocą tak zwanego favicona. Jest to malutka grafika którą możemy zauważyć na karcie oraz na liście ulubionych stron.

Zgodnie z najnowszą specyfikacją język powinien być określony za pomocą atrybutu meta „lang”.

Idealny szablon zawiera wreszcie znaczniki danych strukturalnych. Jest to nowość która ułatwia wyszukiwarkom indeksację treści w sztywno ustalone struktury. Np. blog zawiera autora, datę publikacji, zdjęcie wyróżniające oraz kategorię. Przy użyciu znaczników danych strukturalnych wskazujemy to, które pole odpowiada za datę publikacji. Dzięki temu eliminujemy możliwość pomyłki wyszukiwarki kiedy to może wziąć za datę publikacji  np. datę ostatniej aktualizacji. Dla przykładu ja na swojej stronie używam dane strukturalne blogu oraz firmy. W tym artykule jest wszystko o danych strukturalnych.

Od niedawna wydawcy stron są zobligowani do umieszczenia informacji o wykorzystywaniu ciasteczek oraz politykę prywatności. Tego typu treści są odczytywane przez wyszukiwarki i brane jako wskaźnik jakości strony.

Do diagnostyki stron pod katem optymalizacji szablonu i treści polecam narzędzia Woorank, Seositecheckup a przedewszystkim PageSpeed Insights. Polecam także swój: M-Test.

Oto wyniki jakie moja strona uzyskała w tych serwisach:

SeoSiteCheckup:

 

PageSpeed Insights:

optymalizacja seo pagespeed insights

 

 

Krok 3: Treść

Unikajmy tworzenia treści w formatach niewebowych. Odsyłanie do PDFów lub osadzanie ramek, (o elementach Flash już nawet nie wspominam) w większości przypadków może okazać się niewygodne dla użytkowników. Wszelkie dane razem z wykresami generujmy przy pomocy przyjaznych dla technologii webowych formatów np. HTML lub SVG.

Powtórzenia zakazane. Kopiując treść z innych stron nie osiągniemy wysokich pozycji o dobrej reputacji też można zapomnieć. Tego typu nadużycia są łatwe do wykrycia o szkodzą promocji strony.

Krok 4: CMS

Analizatory stron internetowych biorą pod uwagę czy strona w adresach używa podkreśleń „_” czy pytajników (zasada tzw. przyjaznych linków). CMS generujący semantyczne URL na zasadzie kategoria/produkt to bardzo dobre rozwiązanie. CMS może przejąć na siebie wiele obowiązków dotyczących optymalizacji stron www. Przykładem może być automatyczne generowanie poprawnej mapy strony, minimalizacja kodu czyli usuwanie spacji w kodzie źródłowym strony nie wpływające na treść ani na wygląd strony.

Trzeci raz powraca temat prędkości. CMS dobrze napisany działa szybko i nie obciąża hostingu. Wpływ systemu CMS na wydajność serwera jest tym większy im większy ruch na stronie będą generować użytkownicy i im więcej treści jest do zarządzania.

CMS szybki i prosty w obsłudze to też kwestia optymalizacji strony internetowej – dlaczego? Otóż, chodzi o to aby nie zniechęcać do częstych aktualizacji.

Krok 5: Standard AMP

Przy opracowaniu nowej strony warto zainteresować się standardem AMP. Nie zajmie to wiele czasu a lista zalet jest bardzo długa. Więcej o projektowaniu stron zgodnie ze standardem AMP napisałem w artykule: Projektowanie stron AMP.

Gotowe szablony a optymalizacja

Tajemnicą poliszynela jest fakt że gotowe szablony, które często służą za podstawę do tworzenia stron internetowych przez agencje kreatywne są mało zoptymalizowane, co więcej utrudniona jest przyszła praca z tym związana. Dlaczego tak jest? W gotowych szablonach próbuje się pogodzić wiele różnych potrzeb dla wielu różnych zastosowań. Wielość dodatków, opcji i mówiąc wprost: niepotrzebnych elementów które być może tylko w paru procentach okażą się przydatne skutecznie utrudnia odchudzenie takich stron i często bywa tak że najlepszą optymalizacją okazuje się… stworzenie podobnej strony całkowicie od nowa.

Warto zastanowić się nad sensownością zlecenia strony, która na takim szablonie bazuje. Strony tworzone z gotowych szablonów może i kiedyś zdawały egzamin ale obecnie: czynią więcej złego niż dobrego. O tym, że nie warto korzystać z gotowych szablonów będę pisał w osobnym artykule.

Design

Możesz optymalizować i wynajmować najlepszych ekspertów ale jeżeli twoja strona czy sklep wygląda „tanio” to nie spodziewaj się fali zamówień. Nie pomogą nawet pierwsze pozycje na dosłownie każde związane z twoją branżą zapytanie. Zleć stworzenie strony komuś kto dba o warstwę wizualną i poświęca temu naprawdę sporo uwagi – przecież wiesz kogo mam na myśli 😉 Zapraszam do wpisu na ten temat: Sekrety dobrego web designu.

Podsumowanie

Optymalizacja strony www to dość złożony proces. Należy wziąć pod uwagę wiele czynników zaczynając od hostingu po szablon a nawet użyty CMS. Niczego nie zastąpi dobra architektura strony internetowej i przygotowanie już na etapie produkcji na jej możliwość rozbudowy i optymalizacji w przyszłości.

Zachęcam do współpracy dotyczącej optymalizacji nowo powstałych jak i dłużej istniejących stron wymagających odświeżenia i przystosowania do zmieniających się wymogów Internetu i rosnącej konkurencji. Kontakt.

Optymalizacja stron www
4.54 (90.8%) głosów: 87

Autor: (28 lat)

Pamiętaj, że służę pomocą w razie wykonania lub odnowienia strony lub sklepu internetowego dla twojej firmy. Niech potwierdzeniem moich kompetencji będzie fakt, że jesteś na mojej stronie mimo, że jestem z całkiem innej części Polski ;)

Tego typu wpisy piszę w wolnych chwilach lub pomiędzy projektami. Tylko pomyśl co mogę dla Ciebie zrobić w ramach płatnej usługi bez pośredniczących nastawionych wyłącznie na własny zysk agencji reklamowych.

Otrzymuj powiadomienie o nowych artykułach

*Bez obaw, nie udostępniam nikomu twojego adresu e-mail