Pozycjonowanie nieustannie się zmienia, szczególnie dynamicznie w ostatnich latach. Nie możemy nawet mówić o ewolucji, a raczej o kolejnych rewolucjach, które serwuje nam Google. Każda kolejna, większa aktualizacja algorytmu powoduje niemałe spustoszenie w świecie pozycjonowania. Powstają przy okazji liczne teorie na temat tego co działa, co Google uważa za niewłaściwe, z których ciężko znaleźć jakiś odpowiednik dla swojej strony, bo jak wiemy każdy projekt jest inny. W jakim kierunku zmierzamy? Na to postaram się odpowiedzieć poniżej analizując przeszłość – wcale nie tak daleką, jednak w świecie SEO/SEM to już lata świetlne.

Pozycjonowanie samymi słowami kluczowymi

Jeszcze kilka lat temu jednym z ważniejszych czynników, które wpływały na ranking, było odpowiednie nasycenie danej strony słowami kluczowymi. Optymalizacja oznaczała wtedy nic innego jak upchnięcie w tytule, meta tagach i treści strony możliwie dużej liczby fraz kluczowych i okraszenie tego tonami masowo pozyskiwanych linków czy to w SWL-ach czy to też we wszelkiej maści katalogach typu webmini, otwarty mini a także na stronach zawierających bardzo duży site (strony typu tłumaczenia piosenek, wiersze).

Linki, linki i jeszcze raz linki

Na fali masowego pozyskiwania linków powstawały liczne systemy wymiany linków, nowe skrypty katalogów. Systemy te, co istotne, przynosiły odpowiednie efekty dla pozycjonowanych tymi sposobami stron. Nie były do końca wykrywane przez Googla, tylko czasami można było usłyszeć informacje o filtrach czy też banowaniu stron pozycjonowanych przy pomocy SWL czy też w katalogach. Systemy te ewulowały. Powstały też nowe SWL, które miały stwarzać wrażenie rozwiązań o znacznie lepszej jakości i być „bezpieczne dla pozycjonowania”. Takie systemy jak seopilot czy prolink umożliwiały pozycjonowanie także osobom, które dopiero zaczynały swoją przygodę z takim sposobem promocji stron internetowych.

Jaki był 2014 rok?

Poprzedni rok to kilkanaście dużych aktualizacji algorytmu Google. Co chwilę słyszeliśmy o kolejnych zwierzątkach z Google ZOO. Mieliśmy aktualizacje algorytmów nazwanych przez naszego monopolistę Pandą, Pingwinem, Kolibrem, Gołębiem… zmiany te, choć nie zawsze były udane i trafne, spowodowały niemałe przetasowanie w wynikach wyszukiwania, ale też i wymusiły zmianę podejścia do zdobywania linków. Masa czasu spędzona na wyciąganiu domen z filtrów, czy też w skrajnych wypadkach zmianach domen i rozpoczynaniu wszystkiego od nowa, była dla wielu pozycjonerów i pozycjonerek impulsem do zastanowienia się nad podejmowanymi działaniami. Katalogi, SWL, wszelkie masowe sposoby pozyskiwania linków straciły na znaczeniu. Oczywiście zaraz pojawią się głosy, że nic bardziej mylnego, że nadal się da, ale nikt nie zna dnia ani godziny, kiedy jego strona zostanie ukarana. Dlatego warto wyprzedzać działania Google i już teraz zmienić podejście do promowania stron poprzez SEO.

Jaki zatem będzie 2015 rok?

Będzie to z pewnością rok Content Marketingu. Niestety w Polsce mamy do czynienia z powielaniem schematów, ze standardowym podejściem do tego zagadnienia. Spójrzmy choćby na najbardziej popularny sposób budowania CM – dodawania treści na „wysokiej jakości portale”. Dodawanie artykułów sponsorowanych czy też eksperckich na portale z ruchem, realnymi użytkownikami zdaje się coraz bardziej przypominać artykuły dodawane kiedyś na precle. No bo czym to się różni? Właściwie tylko tym, że wymagamy od autorów treści lepszej jakości „nie preclowej”. Dalej wstawiane są odnośniki z anchorami na frazy, z linkami dofollow, itp., a przecież CM powinien służyć innym celom niż pozycjonowanie. Oczywiście ma to mniejszy lub większy wpływ na widoczność strony w wynikach wyszukiwania, ale należy pamiętać, że nie jest to cel nadrzędny. Jeżeli w dalszym ciągu Content Marketing będzie tak rozwijał się w Polsce, to z portalami stanie się to samo co z preclami. Stąd już teraz warto się zastanowić nad tym jak prowadzone są działania CM.

Google rzuca nam kłody pod nogi, powoduje, że nasza profesja staje się coraz trudniejsza, ale też i pełna wyzwań. Jeszcze kilka lat temu osiągnięcie wysokich pozycji było znacznie prostsze niż obecnie. Nie była konieczna kompleksowa optymalizacja, wykonywanie testów, branie pod uwagę tak wielu czynników, jak choćby szybkość ładowania się strony. Każdy ma teraz trudniej, wydłużył się znacząco czas oczekiwania na osiągnięcie zadowalających efektów pozycjonowania, walczymy z filtrami, znacznie więcej czasu poświęca się na kwestie związane z budową strony, już nie tylko pod kątem SEO, ale również usability. Wracamy więc do podstaw, znacznie większą uwagę przywiązując nie do ilości linków a do ich jakości. Okazuje się bowiem, że obecnie mniej znaczy lepiej a im trudniej pozyskany link, tym jest on bardziej wartościowy.

Paweł Sądaj

Szef wszystkich szefów. Na jego głowie leży zarządzanie "kreatywnym zamieszaniem" jakim jest Netim. Optymalizacja czasu pracy i nadanie priorytetów zadaniom to główna idea przyświecająca Pawłowi. Z zamiłowania piłkarz.