Każdy właściciel witryny internetowej chce, żeby pokazywała się ona na jak najwyższym miejscu w wynikach wyszukiwania. Żeby osiągnąć ten cel, potrzebne są dwie rzeczy. Po pierwsze dobre jakościowo linki. Jednak nawet największa ich liczba może nie pomóc, jeśli nie zostanie spełniony drugi warunek, a jest nim poprawna i pełna optymalizacja strony. Składa się na nią kilka głównych aspektów, ale wszystkie są ze sobą w jakiś sposób powiązane. Rand Fishkin z moz.com zaprezentował infografikę przedstawiającą te grupy, a my szczegółowo opisujemy poszczególne elementy, na jakie należy zwracać uwagę przy gruntownej optymalizacji.
Spis treści
Strona wartościowa i unikalna
Przede wszystkim witryna oraz każda jej podstrona musi być unikalna, nie może powielać treści już istniejącej w Internecie. Powinna ona być użyteczna i przyciągająca uwagę. W ten sposób będzie zachęcać użytkowników do dzielenia się adresem z innymi, dzięki czemu można poświęcić mniej czasu na zdobywanie linków samemu. Dobrej jakości grafika i zdjęcia również bardzo w tym pomagają.
Przyjazna dla użytkownika
Dla internautów liczy się dosłownie każda sekunda. Dlatego należy wybrać szybki serwer, a kod powinien być jak najbardziej optymalny i zwięzły. Duża liczba zapytań do serwera i bazy danych przedłuża otwieranie strony, a wystarczy 250 milisekund większego czasu ładowania, żeby użytkownicy przenieśli się na stronę konkurencji. Już kilka lat temu ponad połowa kupujących zamykała stronę, której wczytywanie trwało powyżej 3 sekund. Pomaga w tym włączona na serwerze kompresja w locie. Ale nawet błyskawicznie otwarta strona nie zatrzyma internautów, jeśli jej szablon nie będzie estetyczny i łatwy do czytania. Nawigacja musi być wygodna, a dojście do każdej podstrony serwisu nie powinno przekraczać 4 kliknięć od strony głównej. Przyjazne adresy są koniecznością, każdy chce znać temat podstrony zanim kliknie w link. Natomiast już po wejściu na nią dobrze widoczny i poprawnie dopasowany tytuł utwierdza, że to jest właśnie ta poszukiwana strona.
Połączona z sieciami społecznościowymi
Przyciski do sieci społecznościowych upraszczają internautom dzielenie się treścią witryny. Znaczniki typu Facebook Open Graph czy Twitter Card jeszcze bardziej to ułatwiają. Strona facebookowa czy Google+, na której regularnie pojawiają się wpisy z nowościami, zwiększa liczbę odwiedzin zarówno nowych użytkowników, jak i tych powracających.
Nacelowana na słowa kluczowe
Każda podstrona powinna mieć wybraną jedną główną frazę kluczową. Należy ją umieścić na początku tytułu, w adresie URL oraz przynajmniej dwukrotnie w treści. Poboczne słowa kluczowe również dobrze zamieszczać w nagłówkach różnych poziomów oraz w treści, gdzie powinny być wyróżnione. Obrazki muszą mieć uzupełniony tekst alternatywny (atrybut alt) – dokładny opis ich zawartości, zawierający również słowa kluczowe, ale bez przesady. Nie ma odgórnych ograniczeń co do jego długości, o ile faktycznie jest to deskrypcja obrazka, a nie ukryty tekst artykułu. Słowa kluczowe dobrze jest też umieszczać w anchorach linków prowadzących do danej podstrony.
Dostępna dla robotów wyszukiwarek
Roboty wyszukiwarek nie mogą być blokowane plikami robots.txt czy .htaccess, ani w żaden inny sposób. Należy też poprawnie korzystać z metatagów zezwalających lub zabraniających indeksowanie. Znacznik
<META NAME=”ROBOTS” CONTENT=”NOINDEX”>
powinien być wyłącznie na stronach, których nie chcemy, żeby znajdowały się w indeksie wyszukiwarki. Zawierają się tutaj strony powielające treści, np. archiwa tagów czy dat na blogach, albo strony wewnętrzne z ograniczonym dostępem. Odradzamy wykorzystanie w tym miejscu często nadużywanego metatagu
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>
ponieważ wtedy traci się siłę linków, które prowadzą do takiej podstrony. Z kolei znacznik przeciwny
<META NAME=”ROBOTS” CONTENT=”INDEX”>
jest zbyteczny, ponieważ jego wystąpienie jest traktowane identycznie jak jego brak. Natomiast wszystkie strony, które mają być indeksowane, powinny znajdować się w mapie strony, która jest dostarczana do Google w Narzędziach dla Webmasterów. Dla podstron, które występują w kilku wersjach, np. różne rodzaje sortowania produktów czy artykułów, został stworzony atrybut rel=”canonical”, który wskazuje na główną wersję (np. domyślne sortowanie). Paginacje powinny wykorzystywać atrybuty rel=”prev” i rel=”next”. Kluczowe elementy mają swoje limity, których najlepiej nie przekraczać: adres podstrony 90 znaków, tytuł (title) 75 znaków, a opis (description) 160 znaków.
Niewskazane jest używanie dynamicznych parametrów w adresach, ponieważ są nieczytelne dla użytkowników. Za pomocą RewriteRule w pliku .htaccess można je zamienić na przyjazne adresy, znacznie bardziej czytelne. W przypadku przeniesienia treści pod inny adres konieczne jest skorzystanie z przekierowania 301. Natomiast usunięta podstrona musi zwracać kod odpowiedzi 404, w żadnym wypadku nie może to być strona błędu z kodem odpowiedzi 200 lub przekierowanie na jakąś innę podstronę. Jedynym wyjątkiem jest, kiedy istnieje podstrona o podobnej treści, wtedy można skierować użytkowników i wyszukiwarki na nią za pomocą 301. To przekierowanie jest również wymagane w przypadku przenoszenia serwisu na inny skrypt, w wyniku czego podstronom zmieniają się adresy. Z kolei podczas chwilowych problemów z serwerem lub podstroną odpowiedź powinna mieć kod 503. Zabronione jest używanie JavaScriptu lub ramek do wczytywania treści, do których nie można się dostać za pomocą żadnego linka – cała zawartość strony ma być wczytana w HTML-u. AJAX można używać tylko obok faktycznych linków lub w miejscach, gdzie treść strony się nie zmienia (np. do zmiany sortowania w tabelce).
Wykorzystująca możliwości wyników wyszukiwania
Każda podstrona powinna mieć inny tytuł, zależnie od możliwości. Przydatne jest zawieranie znaczników schema.org oraz do rozszerzonych opisów, w przypadku artykułów również rel=”author” lub rel=”publisher”, a dla stron wielojęzycznych adnotacji hreflang=”x”. Opisy meta powinny być zachęcające do kliknięcia, a jednocześnie zawierające słowa kluczowe. Metatag keywords nie jest już brany pod uwagę przez Google, w związku z czym nie należy go stosować, chyba że do wykorzystania przez wewnętrzną wyszukiwarkę.
Responsywna
Nowoczesne witryny korzystają z Media Queries w tym celu, żeby były wyświetlane wygodnie dla internautów, czyli bez poziomego paska przewijania, niezależnie od szerokości urządzenia używanego do przeglądania Internetu. Najlepiej jest też, kiedy także adres witryny (oraz podstron) jest identyczny niezależnie od urządzenia. Trzeba także upewnić się, że strony wczytują się poprawnie i jednakowo na każdej popularnej przeglądarce (w razie możliwości również na różnych najpopularniejszych wersjach). Na koniec można skorzystać z kilku narzędzi wychwytujących różne nieprawidłowości, takich jak Narzędzia dla Webmasterów Google, PageSpeed Insights, W3C Markup Validator, Xenu’s Link Sleuth oraz innych.
Nie istnieje coś takiego jak idealnie zoptymalizowana strona. Każda witryna jest inna, są używane różne narzędzia do budowy oraz wykorzystywane inne technologie. Jednak Rand pokusił się o graficzne przedstawienie takiego przykładu:
Sprawdzenie i wykonanie wszystkiego powyższego nie gwarantuje oczywiście pierwszego miejsca na wszystkie frazy kluczowe, ale zdecydowanie ułatwi rozprzestrzenianie się świadomości o stronie, indeksowanie jej przez Google oraz poprawi wrażenia z korzystania z niej, co na pewno wpłynie docelowo na wyższe pozycje w porównaniu do słabiej zoptymalizowanych stron.
źródło grafiki: moz.com, autor: Rand Fishkin
Paweł Mansfeld
Wielki szacun. Artykuł z 2013 roku a już mamy temat Responsive Web Design. Pozdrawiam!