Ok, przed ostatni wpis z cyklu SEO w praktyce. Prawdopodobnie najwięcej osób czekało na ten właśnie wpis. Ponieważ skupię się w nim na technicznych i realnych aspektach poprawiania pozycji w wynikach wyszukiwania.
Ale gdyby umknęły Ci poprzednie wpisy w tym cyklu, to znajdziesz je tutaj:
Pozycjonowanie płatne, czyli robisz to źle.
Pisałem wcześniej – pozycjonowanie strony zaczyna się na Twojej stronie. Problemem są firmy pseudopozycjonujące. Psują wizerunek innych firm w branży, bo oszukują. Korzystają z niedozwolonych metod ryzykując dobro klientów lub stosują automatyczne skrypty, które działają tylko jakiś czas i tylko jeśli klient płaci. Nie chce mi się tracić na nie czasu, więc ad rem
Słowa kluczowe, tagi, metatagi
Istnieje przekonanie, że w związku z licznymi nadużyciami, Google zrezygnowało ze słów kluczowych oznaczanych w kodzie strony jako <keywords>. To zupełnie zrozumiałe, można było tam wpisać co się chciało, próbując wmówić robotom, że strona jest o czymś zupełnie innym niż jest. Z drugiej strony umieszczenie słów kluczowych na pewno nie wpłynie źle na wyniki wyszukiwanie. Dlatego, w mojej praktyce, jeśli mogę to stosuję. Poza tym, jak już pisałem, algorytm google’a jest tajemnicą, więc może jakiś mały bonus za keywords jest.
Meta tag to opis strony, pełnił funkcję podobną do słów kluczowych. I analogicznie, oficjalnie nie używany, ale nie oficjalnie to kto ich tam wie. Więc podobnie jak przy słowach kluczowych, jak się da i jak mogę to używam.
Jeśli nie mamy dowodu na to, że coś nie działa, a możliwe, że działa, to lepiej używać niż nie :). Proste.
Nowe słowa kluczowe
Jak zapewne się domyślasz, roboty nadal muszą orientować się na jakiego rodzaju stronę patrzą. W związku z tym algorytm musiał znaleźć jakiś nowy klucz sprawdzania stron. Jest kilka elementów, które są sprawdzane, obserwowane i rozumiane.
Nagłówki
Pamiętasz jak pisałem, że WordPress i czysty HTML to dwie najlepsze opcje dla nowych stron jeśli zależy nam na dobrym pozycjonowaniu. Czy robiąc prezentację lub stronę internetową to do czego dążysz, to ściana tekstu? Nieczytelny blok zlewających się literek? Nie. Robiąc każdy wpis, nie tylko dzielę go na akapity, bo sam większy odstęp to nie wszystko. Więc dzieli się tekst na bloki, a żeby czytelnik wiedział o czym jest kolejna partia tekstu nadaje się im nagłówek. Podobną logikę zastosowano przy przebudowie algorytmu. Do tego mamy do dyspozycji kilka poziomów nagłówków.
W ten sposób powstało nowe podejście do „fraz kluczowych”. Co ważne Google jest wrażliwe (podobno) na długość i ilość nagłówków. Innymi słowy „nie taki ten gugl głupi”, bo przecież możnaby walnąć całą stronę nagłówkiem pierwszego lub drugiego rzędu, bo to więcej słów kluczowych, nie można. Jeśli robot widzi za dużo bloków tekstów z za dużą liczbą i długością nagłówków to źle rankinguje stronę.
Więc nie oszukujemy. Teksty na stronie należy wyróżnić nagłówkami od 1 do 3 i potem tekstem, który (prawdopodobnie) też jest skanowany i analizowany, tylko otwartą kwestią pozostaje jak.
Obrazki

Co widzisz na obrazku? Korytarz, dziewczyna, spódnica, gradient, rower, żółty kolor, słupy, zieleń, bluzka, usta itd. Jeśli bylibyśmy na stronie sprzedającej rowery, nasz mózg szybko robiłby połączenie – sklep z rowerami, na zdjęciu rower. Problem w tym, że to co widzimy na zdjęciu dla robota google nie istnieje. Maszyna widzi w najlepszym wypadku, że to plik graficzny, który nazywa się bike_girl_2345678u.jpg.
I tu z pomocą przychodzi ponownie WordPress. Dodając obrazek oprogramowanie podpowiada nam, żeby dodać opisy – uzupełnić gotowe pola.
W praktyce? 95% ludzi „olewa” temat, nie rozumiejąc po co ma dodatkowo opisywać zdjęcie lub grafikę. A działa to mniej więcej jak znacznik <keyword>. Robot widzi „o! zdjęcie! Ciekawe co na nim jest? Jestem małym robocikiem internetowym i nie mam oczków, to poczytam sobie opis! O… Opis jest puuusty…„. Jeśli żal Ci niemających oczu robocików – dodawaj opisy zdjęć!
Mapy stron
A to akurat nic strasznego. Pomimo, że struktura strony, dla Ciebie wydaje się zrozumiała, to dla automatu skanującego sieć już taka być nie musi. No i sensu stricte nie jest to mapa… Chociaż trochę jest… Powiedzmy, że to taka „mapa schrödingera”. Mapa strony, to nic innego jak jeden plik, w którym pokazane jest co, gdzie i jak połączone jest na Twojej stronie. Po to, żeby ułatwić Google pracę, tak jak przy zgłaszaniu stron. Lubimy jak ktoś przychodzi do nas po pomoc, będąc dobrze przygotowanym.
Przy tworzeniu nowych stron możesz albo upomnieć się o to, żeby była u firmy, która realizuje Twoją stronę – to najszybsze rozwiązanie i de facto powinno być zawarte w cenie całej usługi. Ewentualnie możesz zrobić mapę sam, korzystając z generatorów i postępując zgodnie z instrukcjami.
Lub skontaktuj się ze mną, potrwa to chwilkę i problem z głowy.
Content
Ten punkt pośrednio wiąże się, ze wspomnianymi wyżej nagłówkami. Google stosuje pewne rankowania nagłówek 1, 2, 3 itd., następnie tekst. I choć zabrzmi to absurdalnie, to prędzej czy później robociki przemierzają CAAAAŁŁŁŁYYY internet, jak dochodzą do końca to wracają i sprawdzają co się zmieniło lub co nowego pojawiło. To mniej więcej nazywa się indeksacja. Co gorsza, te same urządzenia ZAPAMIĘTUJĄ co jest na stronach. Jeśli masz dużo świeżych treści, ładnie sformatowanych i często wyszukiwanych, to będziesz „atrakcyjniejszą” stroną i będziesz wysoko w wynikach. Innymi słowy – nie kopiuj treści, content musi być oryginalny.
Czasami może być lepiej podlinkować tekst zewnętrzny niż robić kopię.
Mobile First, Safety First
Dwa firsty w jednym nagłówku – to musi być ważne. W poprzednim wpisie zaznaczyłem, że Google jak „każdy ma swoje priorytety, niestety„. Te dwa z nagłówka pojawiły się rok po roku i wskazują na ogólną tendencję.
Mobile First – oznacza, że wyszukiwarka preferuje strony responsywne. Innymi słowy – takie, które „zmieniają wygląd” w zależności od urządzenia, na którym je przeglądasz. Dla przykładu weźmy mój blog. Kiedy wyświetlasz go na komórce, a robi tak 3/5 użytkowników, zdecydowanie zmniejszają się grafiki, rozmiar fonta (takie nerdowkie określenie dla czcionki) w nagłówkach, a także sam font wpisów, oraz marginesy. I to już jest wysoki, jeszcze nie najwyższy jednak wysoki, poziom responsywności. Dlatego dostaję od Google dużego plusa. Trochę mniejszego można dostać za sam fakt responsywności – to znaczy strona w ogóle reaguje, to znaczy, ustawia treść z góry do dołu.
Natomiast wielkiego minusa dostają strony, które nie są responsywne, czyli wyglądają dokładnie tak samo niezależnie od urządzenia. Tak, nadal takie są…
Safety First, to druga wdrożona ostatnio polityka. Google ogłosiło, że internet, jest na tyle niebezpieczny, że muszą coś z tym zrobić. No i priorytet indeksowania i wysokich wyników dostały wirtyny z tzw. SSLem. Co to jest? Hmmm… Masz odruch sprawdzania adresu banku? Wchodząc na stronę swojego banku, spójrz na adres stron. Obok niego po lewej powinna pojawić się informacja „Zabezpieczona” lub ikona zielonej kłódki. Jeśli jej nie ma to albo padasz ofiarą hackera, albo pora zrezygnować z banku w Bukina Faso, który ma „darmowe konta”. Ta kłódka oznacza, że strona jest szyfrowana. To znaczy, że ona i Twoja przeglądarka rozmawiają szyfrem i jeśli ktoś chciałby stać obok i podsłuchać jak wymieniacie się np. hasłem do Twojego konta, to nie zrozumie.
Obu tych rzeczy wymagaj zamawiając stronę. Ku mojemu przerażeniu są nadal firmy, które „robią strony”, ale nie są Z AUTOMATU tworzone jako responsywne, ale za lekką dopłatą.
SSL jest najcześciej dodatkowo płatny – wiąże się z wykupieniem dodatkowego certyfikatu, kodu itp.
Uwaga – możesz i powinieneś zapytać o te kwestie. Natomiast życie pokazuje, że priorytety sobie, a życie sobie i Google, samo pogubiło się we wdrażaniu własnych zasad, bo strony niereposnywne i niezabezpieczone nadal są indeksowane, np. mój blog. Jest responsywny, ale w mojej ocenie nie wymaga SSL’a, więc póki co nie stosuję.
Optymalizacja
Ostatni w tym wpisie, element układanki. Google i psychologia pokazują, że co prawda lubimy ładne zdjęcia na stronie, to jednak wolimy, jak strona szybko się wczytuje. Im dłuższe ładowanie strony, to mniejsza liczba widzów.
Zanim więc wrzucisz zdjęcie z wakacji na stronę www, pamiętaj żeby je zoptymalizować. Nie wrzucaj zdjęć powyżej 1024px, bo nie ma takiej potrzeby. Jeśli zrobiłeś piękną panoramę, to wrzuć miniaturę, a widzom pozwól pobrać dużą grafikę z linka np. do Google Drive.
Optymalizacji grafiki możesz dokonać w kilku bezpłatnych programach graficznych np. IrfanView.
Tam zmniejszasz rozmiar, format pliku (preferowany jpg) i stopień kompresji. Pobaw się na sucho z tymi ustawieniami i podglądaj wyniki, to najlepsza metoda. Na pewno złapiesz moment, w którym buzia bąbelka na zdjęciu nie wygląda już słodziutko, ale przypomina karton po butach, zleżany w deszczu.
Ostatnia rzecz to optymalizacja kodu. O tym w następnym akapicie.
Tak, optymalizacji grafiki itp. wymagaj od autora strony. Ma być zrobiona, ewentualnie wyślij zoptymalizowane grafiki, jeśli przegniesz z „polepszaniem”, to dobrzy webmaster zadzwoni powiedzieć, że to zdjęcie to takie nie za bardzo. Ech i optymalizacja kodu… Tego nie da się ani łatwo wytłumaczyć, ani obrazowo. Po prostu zapytaj czy wykonują po zakończonej pracy lub na bieżąco. Dla wytłumaczenia cytat Antoine de Saint-Exupéry: Wydaje się, że doskonałość osiąga się nie wtedy, kiedy nie można już nic dodać, ale raczej wtedy, gdy nie można nic ująć.
Reasumując
- Tagi, słowa kluczowe i metatagi, niby nie grają roli obecnie, ale jak można ich użyć, to róbmy to.
- Nagłówki i oryginalny tekst to nowe słowa kluczowe.
- Nie rób przykrości robotom Google – dodawaj opisy grafik.
- Google nie lubi kopii, więc nie kopiuj.
- Pamiętaj o responsywności i bezpieczeństwie.
- Optymalizuj kod strony i grafiki, szybkość ładownia to podstawa.
0 komentarzy