Loading
Memtor Marketing

Wyszukiwarka od środka

 

Wyszukiwarki internetowe powstały z prozaicznego powodu – człowiek nie był w stanie na bieżąco gromadzić i aktualizować ogromu danych napływających do sieci internetowej. Wyszukiwarka ma za zadanie znaleźć witryny internetowe, stworzyć z nich index, obliczyć ranking na podstawie trafności zapytania i wyświetlić wyniki.

Do znalezienia stron używane są specjalne programy nazywane robotami. One automatycznie i na podstawie określonych zasad poruszają się po sieci internetowej kierując się adresami wyznaczonymi przez linki. Przeszukując sieć, odwiedzają kolejne strony, do których adresy pobierają ze znalezionych wcześniej dokumentów. Głównymi zadaniami robotów jest informowanie wyszukiwarki o nowych stronach, tworzenie kopii zapasowych serwisów, sprawdzanie, co nowego pojawiło się na stronie, sprawdzanie kodu strony. Roboty nie zaindeksują plików nie posiadających linku, więc mamy wpływ na to co „zobaczy” robot i możemy pewne pliki wyłączyć z indeksacji. Najbardziej znany internetowym robotem jest robot firmy Google zwany Googlebotem. Występuje on w kilku odmianach, w zależności jakie treści mają być indeksowane, funkcjonują Googleboty do witryn komórkowych, do obrazków, do oceny witryn współpracujących z programem Adwords. Wszystkie istniejące w sieci strony połączone są ze sobą linkami, które prowadzą z jednaj strony na drugą. Roboty wyszukiwarki odwiedzają miliardy stron i analizują ich zawartość oraz zapisują wybrane elementy, dzięki którym można szybko znaleźć dokument pasujący do zapytania. Wszystkie te dane zapisywane są na twardych dyskach w ogromnych serwerach jak na załączonym filmie. Przetwarzają one wielkie ilości informacji, tak aby były one dostępne w mniej niż sekundę.

Każde zapytanie wymaga przeszukania miliardów dokumentów celem wyłonienia tylko tych pasujących do zapytania i ułożenia ich według trafności. Właśnie dlatego tak istotne jest optymalizowanie witryny pod kątem wyszukiwarki tak, aby była dla niej wartościowa. „Wiarygodność” („authority”) i „trafność” („relevancy”) są trudne do ocenienia czy zmierzenia. Wyszukiwarki kierują się popularnością strony, podstrony lub dokumentu. Im jest ona popularniejsza tym prawdopodobnie bardziej wartościowe informacje zawiera. Parametry te ustalane są za pomocą algorytmów, które często składają się z setek elementów nazywanych czynnikami rankingowymi. Kiedyś aby wyszukiwarka uznała stronę za trafną i wyświetliła ją w wynikach, wystarczyło że słowa z zapytania występowały na stronie, aktualnie wpływa na to więcej czynników ponadto więcej stron konkuruje do adekwatności na popularne słowa kluczowe.

Aby skutecznie wypromować stronę w wyszukiwarce należy zadbać o linki (odnośniki z innych witryn) prowadzące do naszej strony. Ważne jest też, aby układ nawigacji po witrynie był „przyjazny”, wtedy „roboty” wyszukiwarek mogą swobodnie przemieszczać się i analizować treść. Ponadto właściciele wyszukiwarek często udzielają porad jak osiągnąć lepsze pozycje i przyciągnąć większy ruch. I tak np. Google sugeruje, że należy budować witryny z myślą o użytkownikach a nie wyszukiwarkach min. nie stosować tzw. cloaking-u. Ponadto hierarchia witryny powinna być przejrzysta, do każdego dokumentu powinien prowadzić przynajmniej jeden statyczny link tekstowy. Należy tworzyć przydatne, bogate w informacje witryny, a elementy i atrybuty alt powinny zawierać precyzyjne opisy. Ważne jest też aby żadna z podstron nie zawierała więcej niż 100 linków. Przedstawiciele wyszukiwarki Bing sugerują natomiast, że trzeba między innymi w treści strony używać słów kluczowych, o które mogą pytać użytkownicy wyszukiwarki, podstrony HTML nie powinny być większe niż 150 kB (pomijając zdjęcia), zalecany jest jeden temat na jednej stronie, do witryny powinien prowadzić przynajmniej jeden statyczny link tekstowy. Teksty, które chcemy aby były zaindeksowane, nie mogą być w formie grafiki. Inna ważna wyszukiwarka Yahoo bierze pod uwagę liczbę linków do witryny, treść witryny, aktualizacja indeksów, testowanie zmian w algorytmie wyszukiwarki, pojawianie się w indeksie nowych witryn oraz zmiany w algorytmie wyszukiwania.

Od kiedy istnieją wyszukiwarki osoby zajmujące się SEO starają się zgłębić tajemnice algorytmów decydujących o rankingu. Korzystają przy tym z własnych doświadczeń, prowadzonych eksperymentów, informacji i wytycznych od właścicieli wyszukiwarek, wszelakiego rodzaju spotkań i konferencji tematycznych oraz wymiany spostrzeżeń na forach i blogach. Ostatnio spotkania odbywają się poprzez usługę Hangout stanowiący funkcję Gmail lub Google+.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *