Tak długo, jak robi się cokolwiek związanego z Internetem, nie można zapominać o Google. Ranking Gemiusa podaje, że w III kwartale bieżącego roku aż 96% osób, które trafiały na strony internetowe przez wyszukiwarki internetowe, trafiało na nie właśnie przez Google Search. Bing, DuckDuckGo, Yahoo i inne dostępne w Sieci wyszukiwarki są na polskim rynku prawie nieobecne. <http://ranking.pl/pl/rankings/search-engines.html>
W zeszłorocznym artykule poświęconym optymalizacji strony internetowej pod kątem skutecznej współpracy z wyszukiwarkami internetowymi pisałem o tym, jak dostosować się do podstawowych założeń leżących u podstaw algorytmów, które pomagają ludziom znajdować informacje i towary w Internecie. Ale Google Search nie jest i pewnie nigdy nie będzie projektem skończonym. Co jakiś czas kalifornijski gigant aktualizuje swoje algorytmy, podając część informacji na temat wprowadzanych zmian opinii publicznej. Resztę dopowiadają sobie, na podstawie prowadzonych eksperymentów, specjaliści SEO, a potem dzielą się wiedzą z szerszym gronem odbiorców.
Oto kilka wniosków na temat zmian w funkcjonowaniu algorytmów Google wprowadzanych na przestrzeni ostatnich lat.
W dawnych czasach Internetu bardzo opłacało się kopiować treść cudzych stron i umieszczać ją na swoich. Nie trzeba było samemu pisać nowych tekstów, wymyślać sloganów i rozkładać słów kluczowych pomiędzy podstronami. Na dodatek można było w ten sposób zaszkodzić konkurencji – strony, których duplikaty znajdowały się w Sieci, same traciły pozycję w rankingu. Automatom Google trudno było rozróżnić oryginały od kopii.
Kiedy w 2011 roku Google wprowadziło aktualizację nazwaną od uroczego azjatyckiego ssaka – pandy – nie wszystko poszło gładko. Zmiany wprowadzone w tej aktualizacji miały za zadanie karać tych, którzy kopiują cudze strony albo przeładowują swoje witryny reklamami. Ale algorytm nie do końca skutecznie odsiewał ziarna od plew. Często w rankingach spadali ci, którzy sami starannie przygotowywali treści na swoje strony, a ktoś inny przeklejał je do siebie.
W odpowiedzi na zalew krytycznych komentarzy ze strony autorów stron internetowych, Google opublikowało listę dobrych praktyk, których należy się trzymać, by piąć się w rankingach ich wyszukiwarki. Wskazówki są dość enigmatyczne, nie wiemy też, jak bardzo istotne są poszczególne punkty. <http://googlewebmastercentral.blogspot.com/2011/05/more-guidance-on-building-high-quality.html>
Wnioski: przygotowując treści na stronę internetową, trzeba robić to starannie. Należy powoływać się na źródła, pilnować gramatyki i interpunkcji, nie przesadzać z liczbą reklam. Nie należy także zakładać, że artykuł w sieci może być gorszej jakości niż w prasie drukowanej. Po aktualizacji „Panda” jakość tekstów ma kluczowe znaczenie.
Dziś wciąż można napotkać w Sieci strony-słupy. Znajduje się na nich kilka skopiowanych skądinąd tekstów, koniecznie z prostymi nagłówkami wyglądającymi jak zapytania do Google, i bardzo dużo linków.
Takie strony ustawiają tzw. „czarne kapelusze”, żeby podnosić rankingi innych stron. Ich zadaniem jest przekonywanie algorytmów Google o wartości wskazywanych linkami stron. „Czarne kapelusze” to ci inżynierowie SEO (optymalizacji pod kątem wyszukiwarek), którzy sięgają po te (i wiele innych) nieeleganckie metody.
Aktualizacja Google wprowadzona w 2012 roku i nazwana od uroczego nielota – pingwina – wycelowana była w „czarne kapelusze”. Zadaniem zmodyfikowanego nią algorytmu jest lokalizowanie stron manipulujących linkami na rzecz przesuwania innych witryn w rankingach. Kiedy algorytm odnajdzie taką stronę, obniża jej pozycję w rankingu.
Warto więc uważać na agencje, które wciąż oferują tę spowitą w szarościach usługę wystawiania stron-słupów. Bycie „czarnym kapeluszem” nie popłaca.
Wnioski: nie uciekać się do nieczystych zagrań. To nie popłaca. I pilnować wykonawców usług z obszaru SEO – niektóre ich działania nie tylko nie pomagają, ale i mogą zaszkodzić.
Kiedy projektujemy treść strony internetowej, która ma przyciągać użytkowników szukających określonych informacji albo towarów przez wyszukiwarki internetowe, powinniśmy rozmieszczać na naszej witrynie odpowiednie słowa kluczowe. Na ich podstawie wyszukiwarka będzie mogła dowiedzieć się, co oferujemy, i kierować do nas odpowiednie osoby. Proste, prawda?
Aktualizacja Google z sierpnia 2013 roku (nazwana na cześć kolibra – wyjątkowo precyzyjnego ptaka) wprowadziła delikatną korektę do tego sposobu myślenia. Od tego momentu wyszukiwarka zaczęła dokładniej przyglądać się całym zdaniom wpisywanym przez użytkowników. Jej celem jest zrozumienie kontekstu, a co za tym idzie także celu czy intencji pytającego. I tak, na przykład, musi odgadnąć, czy użytkownik pytający o „czyszczenie dywanów” poszukuje odkurzacza piorącego, czy może jednak usługi sprzątającej z profesjonalnym odplamianiem wykładzin.
Wnioski: dobierając słowa kluczowe, powinno się myśleć o celach, w jakich ludzie mogą ich używać. Należy dostosowywać się do tego, jak poszczególne słowa funkcjonują w języku potocznym, a niekoniecznie trzymać się branżowego żargonu.
Optymalizacja SEO - pisanie tekstów
Nadążać za Google, czyli pragmatyczne konsekwencje ostatnich aktualizacji
Czcionki, fonty, kroje, czyli typografia w projektowaniu stron internetowych
Wizualność stron WWW, czyli teoria obrazu w służbie e-marketingu
Co to jest usability, czyli projektowanie przyjaznych stron WWW - cz. 1..
Dlaczego warto mieć dedykowany sklep internetowy?
Większy ruch na stronie? Może wystarczy dobre SEO?
Optymalizacja Google (SEO)
Szczegółowa procedura
pracy
Profesjonalna specyfikacja
Przejrzyste terminy
10 lat doświadczenia
Biuro w Warszawie
300 wykonanych stron
2015 © VisualTeam s.c. Wszelkie prawa zastrzeżone