Kolejne dwie części poradnika pozycjonowania na 2014 rok. Tym razem przyjrzymy się architekturze strony i jej najważniejszym aspektom. Jeżeli chcesz się dowiedzieć jakie zmiany mogą czekać Cię w zakresie powielanych treści, crawlowania, stron mobilnych, prędkości ładowania się stron i tym podobnych elementów wtedy zapraszam Cię do dalszej lektury!
Poradnik SEO 2014 przygotowywany przez mixedmedia.pl mocno się rozwija. Jeżeli masz jakiekolwiek uwagi podziel się nimi w komentarzach 🙂
Crawl
Bardzo wielu pozycjonerów nadal nie zwraca uwagi na tak ważny czynniki jakim jest crawl. Wiem, że stwierdzenie to jest bardzo ogólnikowe jednak co chwilę ktoś daje się złapać w tę prostą pułapkę i przypomina sobie o swoim zaniedbaniu dopiero kiedy ujrzy wielkie znaki ostrzegawcze. Każdy z nas chce przecież, żeby roboty wyszukiwarkowe mogły jak najswobodniej crawlować po całej powierzchni witryny. W przypadku gdybyś jednak nie chciał wpuszczać google botów na witrynę wtedy pamiętaj aby ustawić atrybut meta noindex.
Jeżeli algorytm Google rzadko lub płyto crawluje Twoją stronę wtedy oznacza to, że mogą istnieć pewne problemy dotyczące jej jakości lub wagi znajdującej się na niej treści. Można rozwiązać tomiędzy innymi linkując z wszystkich podstron do strony głównej. Inne rozwiązanie to zapewnienie, że treść, która jest aktualizowana znajduje się blisko treści lub sekcji o wyższym poziomie PR. Pozwoli to na zbudowanie dobrych jakościowo linków wewnętrznych.
Nie twierdzę, że cała strona musi zostać przecrawlowana w jednym momencie. Wyszukiwarki internetowe dozują sobie czas oraz głębokość tego typu działań nie bez powodu. To chcę Ci zasugerować to fakt, że możesz poczynić pewne kroki, aby cały proces trochę przyspieszyć.
Powielana treść
Na początku drugiej połowy zeszłego roku Matt Cutts zaskoczył całą społeczność zgromadzoną wokół SEO poprzez stwierdzenie, że nie powinniśmy przejmować się powielanymi treściami. Zapewnił, że Google rozróżnia duplikaty i prezentuje tylko jeden wynik w SERPach (bazując zazwyczaj na jakości i ważności strony).
Nie jest to z pewnością duże zaskoczenie ? Google pracowało nad tymi rozwiązaniami już od jakiegoś czasu. Narzędzia webmasterkie już wcześniej posiadały automatyczną możliwość identyfikowania duplikatów.
Musisz pamiętać o jednym. Google nie jest jedyną z dostępnych wyszukiwarek internetowych i rzeczywistość nie zawsze wygląda tak jak twierdzą przedstawiciele giganta z Mountain View. Skup się po prostu na tym, aby eliminować powielaną treść gdzie tylko to możliwe a w innych przypadkach korzystaj po prostu z linków kanonicznych.
Mówiąc o linkach kanonicznych ? w ostatnim czasie mocno spopularyzowała się sztuczka polegająca na używaniu jednego adresu kanonicznego w niewłaściwy sposób kierując go do wszystkich stron z tymi samymi tekstami. Osobiście byłbym jednak ostrożny w tym zakresie. Jeżeli korzystasz z tagów kanonicznych, języka maszynowego i zaawansowanych meta tagów wtedy zachowujesz się tak jakbyś machał ogromną czerwoną flagą informując Google, że prowadzisz praktyki pozycjonerskie i optymalizacyjne. Mówiąc inaczej sam domagasz się jeszcze dokładniejszych kontroli.
Nie zdziwiłbym się gdyby Google zaczęło w końcu karać za ten rodzaj wprowadzania w błąd od strony technicznej. Wyszukiwarki internetowe posiadają raczej bardzo niskie kary (oczywiście te nakładane automatycznie) boją się bowiem, że krzywdzie ulegną niewinne witryny. Jak widzieliśmy jednak w przypadku Pandy i Pingwina wzrost ich pewności, zwiększył również agresywność.