Loading
Memtor Marketing

Optymalizacja stron internetowych, czyli fundament pozycjonowania

image title

podstawy-optymalizacji-stronKażdy właściciel witryny internetowej chce, żeby pokazywała się ona na jak najwyższym miejscu w wynikach wyszukiwania. Żeby osiągnąć ten cel, potrzebne są dwie rzeczy. Po pierwsze dobre jakościowo linki. Jednak nawet największa ich liczba może nie pomóc, jeśli nie zostanie spełniony drugi warunek, a jest nim poprawna i pełna optymalizacja strony. Składa się na nią kilka głównych aspektów, ale wszystkie są ze sobą w jakiś sposób powiązane. Rand Fishkin z moz.com zaprezentował infografikę przedstawiającą te grupy, a my szczegółowo opisujemy poszczególne elementy, na jakie należy zwracać uwagę przy gruntownej optymalizacji.

Strona wartościowa i unikalna

Przede wszystkim witryna oraz każda jej podstrona musi być unikalna, nie może powielać treści już istniejącej w Internecie. Powinna ona być użyteczna i przyciągająca uwagę. W ten sposób będzie zachęcać użytkowników do dzielenia się adresem z innymi, dzięki czemu można poświęcić mniej czasu na zdobywanie linków samemu. Dobrej jakości grafika i zdjęcia również bardzo w tym pomagają.

Przyjazna dla użytkownika

Dla internautów liczy się dosłownie każda sekunda. Dlatego należy wybrać szybki serwer, a kod powinien być jak najbardziej optymalny i zwięzły. Duża liczba zapytań do serwera i bazy danych przedłuża otwieranie strony, a wystarczy 250 milisekund większego czasu ładowania, żeby użytkownicy przenieśli się na stronę konkurencji. Już kilka lat temu ponad połowa kupujących zamykała stronę, której wczytywanie trwało powyżej 3 sekund. Pomaga w tym włączona na serwerze kompresja w locie. Ale nawet błyskawicznie otwarta strona nie zatrzyma internautów, jeśli jej szablon nie będzie estetyczny i łatwy do czytania. Nawigacja musi być wygodna, a dojście do każdej podstrony serwisu nie powinno przekraczać 4 kliknięć od strony głównej. Przyjazne adresy są koniecznością, każdy chce znać temat podstrony zanim kliknie w link. Natomiast już po wejściu na nią dobrze widoczny i poprawnie dopasowany tytuł utwierdza, że to jest właśnie ta poszukiwana strona.

Połączona z sieciami społecznościowymi

Przyciski do sieci społecznościowych upraszczają internautom dzielenie się treścią witryny. Znaczniki typu Facebook Open Graph czy Twitter Card jeszcze bardziej to ułatwiają. Strona facebookowa czy Google+, na której regularnie pojawiają się wpisy z nowościami, zwiększa liczbę odwiedzin zarówno nowych użytkowników, jak i tych powracających.

Nacelowana na słowa kluczowe

Każda podstrona powinna mieć wybraną jedną główną frazę kluczową. Należy ją umieścić na początku tytułu, w adresie URL oraz przynajmniej dwukrotnie w treści. Poboczne słowa kluczowe również dobrze zamieszczać w nagłówkach różnych poziomów oraz w treści, gdzie powinny być wyróżnione. Obrazki muszą mieć uzupełniony tekst alternatywny (atrybut alt) – dokładny opis ich zawartości, zawierający również słowa kluczowe, ale bez przesady. Nie ma odgórnych ograniczeń co do jego długości, o ile faktycznie jest to deskrypcja obrazka, a nie ukryty tekst artykułu. Słowa kluczowe dobrze jest też umieszczać w anchorach linków prowadzących do danej podstrony.

Dostępna dla robotów wyszukiwarek

Roboty wyszukiwarek nie mogą być blokowane plikami robots.txt czy .htaccess, ani w żaden inny sposób. Należy też poprawnie korzystać z metatagów zezwalających lub zabraniających indeksowanie. Znacznik

<META NAME=”ROBOTS” CONTENT=”NOINDEX”>

powinien być wyłącznie na stronach, których nie chcemy, żeby znajdowały się w indeksie wyszukiwarki. Zawierają się tutaj strony powielające treści, np. archiwa tagów czy dat na blogach, albo strony wewnętrzne z ograniczonym dostępem. Odradzamy wykorzystanie w tym miejscu często nadużywanego metatagu

<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>

ponieważ wtedy traci się siłę linków, które prowadzą do takiej podstrony. Z kolei znacznik przeciwny

<META NAME=”ROBOTS” CONTENT=”INDEX”>

jest zbyteczny, ponieważ jego wystąpienie jest traktowane identycznie jak jego brak. Natomiast wszystkie strony, które mają być indeksowane, powinny znajdować się w mapie strony, która jest dostarczana do Google w Narzędziach dla Webmasterów. Dla podstron, które występują w kilku wersjach, np. różne rodzaje sortowania produktów czy artykułów, został stworzony atrybut rel=”canonical”, który wskazuje na główną wersję (np. domyślne sortowanie). Paginacje powinny wykorzystywać atrybuty rel=”prev” i rel=”next”. Kluczowe elementy mają swoje limity, których najlepiej nie przekraczać: adres podstrony 90 znaków, tytuł (title) 75 znaków, a opis (description) 160 znaków.

Niewskazane jest używanie dynamicznych parametrów w adresach, ponieważ są nieczytelne dla użytkowników. Za pomocą RewriteRule w pliku .htaccess można je zamienić na przyjazne adresy, znacznie bardziej czytelne. W przypadku przeniesienia treści pod inny adres konieczne jest skorzystanie z przekierowania 301. Natomiast usunięta podstrona musi zwracać kod odpowiedzi 404, w żadnym wypadku nie może to być strona błędu z kodem odpowiedzi 200 lub przekierowanie na jakąś innę podstronę. Jedynym wyjątkiem jest, kiedy istnieje podstrona o podobnej treści, wtedy można skierować użytkowników i wyszukiwarki na nią za pomocą 301. To przekierowanie jest również wymagane w przypadku przenoszenia serwisu na inny skrypt, w wyniku czego podstronom zmieniają się adresy. Z kolei podczas chwilowych problemów z serwerem lub podstroną odpowiedź powinna mieć kod 503. Zabronione jest używanie JavaScriptu lub ramek do wczytywania treści, do których nie można się dostać za pomocą żadnego linka – cała zawartość strony ma być wczytana w HTML-u. AJAX można używać tylko obok faktycznych linków lub w miejscach, gdzie treść strony się nie zmienia (np. do zmiany sortowania w tabelce).

Wykorzystująca możliwości wyników wyszukiwania

Każda podstrona powinna mieć inny tytuł, zależnie od możliwości. Przydatne jest zawieranie znaczników schema.org oraz do rozszerzonych opisów, w przypadku artykułów również rel=”author” lub rel=”publisher”, a dla stron wielojęzycznych adnotacji hreflang=”x”. Opisy meta powinny być zachęcające do kliknięcia, a jednocześnie zawierające słowa kluczowe. Metatag keywords nie jest już brany pod uwagę przez Google, w związku z czym nie należy go stosować, chyba że do wykorzystania przez wewnętrzną wyszukiwarkę.

Responsywna

Nowoczesne witryny korzystają z Media Queries w tym celu, żeby były wyświetlane wygodnie dla internautów, czyli bez poziomego paska przewijania, niezależnie od szerokości urządzenia używanego do przeglądania Internetu. Najlepiej jest też, kiedy także adres witryny (oraz podstron) jest identyczny niezależnie od urządzenia. Trzeba także upewnić się, że strony wczytują się poprawnie i jednakowo na każdej popularnej przeglądarce (w razie możliwości również na różnych najpopularniejszych wersjach). Na koniec można skorzystać z kilku narzędzi wychwytujących różne nieprawidłowości, takich jak Narzędzia dla Webmasterów Google, PageSpeed Insights, W3C Markup Validator, Xenu’s Link Sleuth oraz innych.

Nie istnieje coś takiego jak idealnie zoptymalizowana strona. Każda witryna jest inna, są używane różne narzędzia do budowy oraz wykorzystywane inne technologie. Jednak Rand pokusił się o graficzne przedstawienie takiego przykładu:

idealnie-zoptymalizowana-strona

Sprawdzenie i wykonanie wszystkiego powyższego nie gwarantuje oczywiście pierwszego miejsca na wszystkie frazy kluczowe, ale zdecydowanie ułatwi rozprzestrzenianie się świadomości o stronie, indeksowanie jej przez Google oraz poprawi wrażenia z korzystania z niej, co na pewno wpłynie docelowo na wyższe pozycje w porównaniu do słabiej zoptymalizowanych stron.

źródło grafiki: moz.com, autor: Rand Fishkin

18 thoughts on “Optymalizacja stron internetowych, czyli fundament pozycjonowania

  • Paweł Mansfeld

    Wielki szacun. Artykuł z 2013 roku a już mamy temat Responsive Web Design. Pozdrawiam!

    Odpowiedz
  • Dawid Szymański

    Nie ma nic lepszego, jak tworzenie strategii jeszcze zanim powstanie strona, bo właśnie na tym etapie można najlepiej zoptymalizować witrynę, zarówno dla robotów jak i użytkowników 🙂

    Odpowiedz
  • hannna318

    Optymalizacja oraz unikalna treść jest najważniejsza. Jak to się mawia "content is the king"!

    Odpowiedz
  • Seowordpress

    Podoba mi się ta moz-wa infografika – bardzo schludna. Wszystko bardzo ogólnikowo ale za to zawiera znaczną większość potrzebnych informacji w jednym niedużym obrazku.

    Odpowiedz
  • StudioPixel

    W jaki sposób sprawdacie szybkość serwera? Czy wystarczy samo pingowanie do okreslonegu adresu czy może coś więcej? Ale przecież każdy serwer ma różne obciążenia w różnych godzinach działania, więc może warto sprawdzać pingowanie w odsepach czasowych?

    Odpowiedz
    • Łukasz Przestrzelski

      Do sprawdzania serwera są różne narzędzia. Czas pobierania strony można sprawdzać tutaj:
      http://webspeed.intensys.pl
      Tylko trzeba to robić ręcznie, ale po sprawdzeniu kilka razy w różnych porach dnia i tygodnia można mieć w miarę dobry przegląd jakości serwera.

      Natomiast do regularnego sprawdzania, czy strona nie zaczyna wczytywać się zbyt długo, można użyć chociażby takiego narzędzia (zaawansowane opcje są płatne):
      http://internetseer.com

      Samo pingowanie z własnego komputera może nie być miarodajne, ponieważ wpływ na wyniki ma chociażby własne łącze internetowe, poza tym jeśli serwer nie jest dedykowany, to adres IP nie musi się równać adresowi strony, na jednym adresie może być wiele witryn.

      Odpowiedz
  • Money

    Ciekawy artykuł. Mam uwagę co do długości opisu (description). Napisałeś, że powinien mieć do 160 znaków. Ja uważam, że jego długość to max. 140, a to ze względu na występowanie daty w opisie.

    Pozdrawiam

    Odpowiedz
    • Redakcja

      Data wystepująca w opisie nie liczy sie do jego długości a podane 160 znaków jest wartością przybliżoną bowiem ostatecznie jest to przeliczane na piksele.

      Odpowiedz
  • Centrum Podróży UniTour Group

    No tak, to są raczej podstawy, które powinny być wykonane na każdej stronie już na samym początku. Szkoda tylko, że niektóre z nich są dość mocno czasochłonne.

    Odpowiedz
  • Hłostink

    Infografika zamieszczona w tekście o tym nie nadmienia. Pełna wersja miniatury początkowej artykułu: http://dc8hdnsmzapvm.cloudfront.net/rand/wp-content/uploads/2013/08/elements-optimized-sml.gif wspomina o ilości requestów i szybkości renderingu dokumentu. Ale po pierwsze to już nie infografika, a lista  „dobrych praktyk” zahaczająca o rzeczy stricte techniczne, to dwa: nie przedstawia ich w pełnej krasie. Bo skoro technicznie, to gdzie CDN, czy implementacje cache ?

    Abyśmy się rozumieli: infografika, nie komentowany artykuł, który jest bardzo ok. Swoją drogą czy brak negatywnych odwołań znaczy o dobrze zredagowanej treści ?

    btw. podzielam komentarz Hyh. Zda się popracowanie nad typo.Zbity tekst, szare nagłówki, zbyt grube i ciemne wyboldowania wraz z błękitnymi anchorami męczy oczy 🙁

    Odpowiedz
    • Łukasz Przestrzelski

      Infografika zamieszczona w tekście o tym nie nadmienia. Pełna wersja miniatury początkowej artykułu: http://dc8hdnsmzapvm.cloudfront.net/rand/wp-content/uploads/2013/08/elements-optimized-sml.gif wspomina o ilości requestów i szybkości renderingu dokumentu. Ale po pierwsze to już nie infografika, a lista  „dobrych praktyk” zahaczająca o rzeczy stricte techniczne

      To raczej miniaturka naszego artykułu jest kawałkiem infografiki, dzięki której powstał artykuł, a nie odwrotnie. Właśnie tę pełną infografikę mieliśmy na myśli, szczególnie że linkujemy do całego artykułu. W związku z czym informacja o szybkości wczytywania znajduje się w niej: "Page renders fast (…)".

      to dwa: nie przedstawia ich w pełnej krasie. Bo skoro technicznie, to gdzie CDN, czy implementacje cache ?

      Podane są wszystkie rzeczy, który wpływają na optymalizację. Jednym z elementów jest szybkość wczytywania strony, a osiągnąć to można za pomocą kompresji, pamięci podręcznej, czy CDN. Rzeczy, które wypisałeś, nie są osobnymi elementami optymalizacji, a jedynie sposobami implementacji podanego. Tak samo przy przekierowaniach można napisać, że osiągnąć je można za pomocą pliku .htaccess lub nagłówka w PHP. Jednak celem artykułu było przedstawienie podstawowych elementów optymalizacji, a nie dokładne ich opisywanie wraz ze wszystkimi szczegółami.

      btw. podzielam komentarz Hyh. Zda się popracowanie nad typo.Zbity tekst, szare nagłówki, zbyt grube i ciemne wyboldowania wraz z błękitnymi anchorami męczy oczy :(

      Wzięliśmy to pod uwagę. Czy teraz jest lepiej?

      Odpowiedz
  • Hosting

    W infografice brakuje drobnego, acz istotnego czynnika: strona ma się szybko dolołdywać.
    I to nie tylko aby serwis notował wysoką punktację w page speed insights, ale żeby z tak prozaicznej przyczyny odwiedzający nie poszli w diabły ! 😉

    Odpowiedz
    • Łukasz Przestrzelski

      Nie jest to prawda, ponieważ informacja o tym znajduje się zarówno w artykule, jak i w samej infografice Randa Fishkina.

      Odpowiedz
  • Aleksandra Figiel

    Bardzo przydatny, uświadamiający artykuł. Bez właściwie stworzonej witryny, bez użytecznej i wartościowej treści na stronie niestety wybicie na najwyższe pozycje ma nikłe szanse. Bez optymalizacji – nie ma pozycjonowania. Pozdrawiam.

    Odpowiedz
  • Eventy

    świetny blog, bardzo przyjemnie się go czyta. Dużo przydatnych artykułów.

    Odpowiedz
    • Hyh

      Ja bym raczej popracował nad typografią, dla mnie tekst jest zbyt zbity i źle mi się go czytało.

      Odpowiedz
      • Redakcja

        Nie widzimy takiego problemu, ale jeśli faktycznie istnieje, to prosimy o bardziej precyzyjne informacje na ten temat. Zachęcamy innych użytkowników do wyrażenia swojej opinii.

        Odpowiedz
      • lukasz

        Zgadzam się. Sam wcześniej na to zwróciłem uwagę czytając inny post. Źle się czyta.

        Długie linijki. Wąska interlinia, znaki ciasne.

        Odpowiedz

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *