Wraz z ewolucją wyszukiwarek, należy dostosowywać również działania podejmowane na stronie. Tylko w ostatnich miesiącach Google ogłosiło wiele istotnych zmian w algorytmach wyszukiwarki. Poprawa crawlingu elementów JavaScript, przejście na indeksowanie mobile-first (ważniejsze dla rankingu będą mobilne wersje stron) czy ewolucja samego wyświetlania wyników wyszukiwania, to wszystko ma oczywiście wpływ na techniczne SEO.
W poniższym artykule postaram się przedstawić szereg działań mających na celu wykonanie poprawnego audytu technicznego SEO.
Crawling stron mobilnych
Po tym jak Google ogłosiło, że większość fraz kluczowych jest wprowadzanych na urządzeniach przenośnych, pojawiła się informacja o nadchodzącym w najbliższych miesiącach przejściu na indeksowanie mobile-first. Obecnie niezwykle istotne jest to, w jaki sposób boty Google widzą mobilną wersję Twojej strony.
Żeby przekonać się, czy mobilna strona jest możliwa do scrawlowania oraz czy cała treść jest dostępna, można skorzystać z Google Mobile-Friendly Test. Jest to najszybszy i najprostszy sposób do sprawdzenia jakości Twojej mobilnej wutryny. Dzięki tej funkcji możesz sprawdzić w jaki sposób boty Google widzą Twoją stronę, czy mają dostęp do wszystkich elementów.
Dodatkowo można uzyskać raport dotyczący przyjazności w użytkowaniu mobilnej wersji strony. Pamiętaj, że strona będzie otwierana na znacznie mniejszych ekranach niż w przypadku komputerów stacjonarnych, więc jej czytelność i wygoda użytkowania są szczególnie ważne.
Crawling elementów JavaScript
Trzy lata temu Google ogłosiło, że jest już w stanie wykonywa skrypty JavaScript w celu lepszego zrozumienia zawartości na stronie. Mimo to wykonane testy na JavaScript wskazują, że wszystko zależy od odpowiedniego zaimplementowania istniejących skryptów, nie zawsze Google jest w stanie uzyskać dostęp do tworzonej treści.
Z tego powodu krytyczne jest śledzenie dobrych praktyk związanych z JavaScript, należy się opierać na nim jedynie wtedy, gdy to niezbędne. Żeby przekonać się, czy boty Google dobrze widzą Twoją stronę, należy skorzystać z funkcji „Fetch as Google” w Google Search Console. Aby zrobić dogłębną analizę swojej strony, polecam crawler Sitebulb lub Screaming Frog SEO Spider, oba wspierają analizę elementów JavaScript.
Wykorzystanie ustrukturyzowanych danych i optymalizacja
Wyniki wyszukiwania Google już od dobrych paru lat nie przypominają dawnego widoku z dziesięcioma linkami. Obecnie dzięki uniwersalnym wynikom po wpisaniu frazy kluczowej możemy zobaczyć zdjęcia, filmy, mapę z usługami lokalnymi czy ramki z odpowiedzią na zadane przez nas pytania. Często to właśnie te inne elementy przyciągają użytkowników bardziej niż standardowe linki.
Obecnie można nie pozycjonować stronę nie tylko klasycznie, ale również dzięki wymienionym wyżej elementom. Szczególnie istotne z punktu widzenia SEO są „featured snippety”, czyli ramki pojawiające się nad wynikami wyszukiwania, często określane jako miejsce zerowe w rankingu. Warto zoptymalizować content na stronie w taki sposób, żeby boty Google mogły go crawlować i wyświetlić w wynikach wyszukiwania nad standardowymi linkami.
Aby wiedzieć w jakie frazy kluczowe celować, można skorzystać z jednego z dostępnych narzędzi, na przykład SEMrush czy Moz Keyword Explorer. Dzięki nim możesz zidentyfikować słowa kluczowe pod którymi Google wyświetla ramkę nad wynikami. Warto przejrzeć odpowiedzi znajdujące się w tych ramkach.
Mozę się okazać, że wcale nie są dobre. To szansa dla Ciebie. Warto stworzyć content pod daną frazę kluczową. Artykuł musi być długi i szczegółowy, dzięki temu szansa na to, że to właśnie jego fragment wyświetli się w wynikach wyszukiwania, będzie znacznie wyższa.
Podobnie sprawa wygląda z grafikami. Jeśli zdjęcia są ważną częścią Twojej strony, postaraj się o ich odpowiednie opisywanie i tagowanie, żeby wyświetlały się wyżej w wynikach wyszukiwania.