Crawlery stron są wartościowymi narzędziami każdego specjalisty SEO, lecz należy pamiętać, żeby nie korzystać z nich jako zamiennika ręcznej analizy. Zaawansowane crawlery w stylu Botify, DeepCrawl czy ScreamingFrog znacznie poprawiły jakość SEO, ale nie tylko one są konieczne do przeprowadzenia pozycjonowania.
Crwalery świetnie się sprawdzają do szukania zepsutych linków, błędów 404 czy canonicali. Stają się głównym źródłem technicznej strony SEO, dzięki czemu mniej czasu musimy spędzać nad analizowaniem naszej strony.
Na pozór nie wygląda to na powód do zmartwienia. Otrzymujemy błyskawicznie olbrzymią porcję danych do analizy dzięki wykorzystaniu tych narzędzi. Jednak należy pamiętać, że są to boty – analizują kod źródłowy strony szukając problemów łatwych do zidentyfikowania według ustalonych parametrów. Choć jest to przydatna funkcja, lista problemów może mijać się z tymi, z którymi spotykają się użytkownicy.
Wyniki wyszukiwania są skierowane do użytkownika
Jak już parę razy wspominaliśmy, wyszukiwarki rozwijają się w szybszym tempie niż kiedykolwiek, wszystko dzięki zastosowaniu algorytmów machine learning. Pozwoliły one na skupienie się na podaniu użytkownikowi najbardziej dopasowanych wyników wyszukiwania, nie tylko pod względem contentu, ale również user experience.
Badania przeprowadzone przez SEMrush czy SearchMetrics odwołują się do sygnałów użytkownika oraz doświadczeń płynących z korzystania z sieci, wliczając przyjazność dla urządzeń mobilnych, szybkość strony, współczynnik odrzuceń, czas spędzony na stronie oraz formatowanie contentu – wszystko to należy do czynników wliczających się do rankingów.
Crawlery sprawiły, że osoby zajmujące się SEO mniej czasu spędzają na fizycznym badaniu strony, ponieważ mają wyniki podane na tacy. Oznacza to, że może na tym ucierpieć user experience, co doprowadzi w rezultacie do spadku pozycji w rankingach.
Co więcej, od listopada zeszłego roku liczba wyszukiwań dokonywanych za pomocą urządzeń mobilnych przerosła stacjonarne po raz pierwszy w historii. Oznacza to, że site crawlery mają jeszcze mniejsze znaczenia, ponieważ służą one przede wszystkim do analizy stacjonarnych wersji storn. Dlatego poza korzystaniem z botów należy ręcznie przejrzeć stronę w taki sam sposób jak to robią użytkownicy końcowi.
Priorytety w SEO
Podejście z priorytetem na użytkowników jest istotne w osiągnięciu sukcesu w wynikach wyszukiwania. W przyszłości nic się w tej kwestii nie zmieni. Aby tego dokonać, musimy postawić się na miejscu konsumenta i dokonać interakcji ze stroną, a także przeprowadzić analizę zachowań poprzez Google Analytics i Google Search Console, a nie tylko opierać się na crawlerach.
Przeanalizowanie zawartości i struktury strony pozwoli na lepsze zrozumienie problemów przed jakimi stoją konsumenci na różnych platformach, od początkowego wyszukiwania aż po konwersję.
Na przykład, czy ścieżka konsumenta jest zoptymalizowana zarówno na urządzeniach mobilnych jak i komputerach stacjonarnych? Czy potrzeby konsumenta są zaspokojone na każdej platformie? Czy content jest zoptymalizowany dla poszczególnych urządzeń? Czy łatwo da się wypełnić wszelkiego rodzaju formularze?
Tej wiedzy nie da się zastąpić wykorzystaniem crawlera do analizy strony. Oczywiście nie mówię, że crawlery nie są ważne, pomagają one w znalezieniu technicznych błędów na stornie, których wyszukanie ręcznie mogłoby trwać setki godzin.
Jednak należy pamiętać, że chociaż crawlery są wspaniałym narzędziem, to nie zastąpią one ręcznej analizy strony, a przynajmniej nie w najbliższej przyszłości. Jest to szczególnie ważne teraz, gdy wyszukiwarki w pierwszej kolejności skupiają się na dostarczeniu jak najlepszego doświadczenia użytkownikom końcowym.