Breaking News
You are here: Home / SEO / Odsłoń się przed Google!

Odsłoń się przed Google!

Przed kilkoma dniami Google oficjalnie ogłosiło, że blokowanie dostępu robotom do plików CSS i skryptów może szkodzić rankingowi strony. Co to właściwie oznacza?

 

Jest potwierdzonym faktem, że:

  1. Estetyka i układ layoutu strony jest istotnym elementem rankingu
  2. Google potrafi „widzieć” strony tak jak to robi robi przeglądarka internetowa

 

show_me

 

Front and Center!!!

Robot Google uwielbia, kiedy zasadnicza treść strony internetowej znajduje się tak wysoko jak to możliwe. Potwierdzają to konkretne zapisy w wewnętrznych instrukcjach Search Quality Guidelines:

The page layout on Highest quality pages makes the MC [Main Content] immediately visible (“front and center”)

The space on Highest quality pages is used well.

The SC on Highest quality pages is helpful and contributes to a very satisfying user experience.

Oczywiście współpracownicy Google, oceniający manualnie jakość stron internetowych, tak zwani  Quality Rater nie przeglądają każdego adresu URL w sieci. Ich spostrzeżenia I uwagi są wykorzystywane jako dane wsadowe dla inżynierów Google, którzy na tej podstawie udoskonalają możliwości algorytmu. Dlatego tak istotne jest, aby Google mógł „widzieć“ stronę. Która ma ocenić.

Tak Google widzi Googlewatchers.info

 

Narzędzia dla webmasterów – Pobierz jako Google - http   googlewatchers.info

W narzędziu Google Webmaster Tool od dawna istnieje funkcja „Pobierz jako Google“.  Za jej pomocą można zobaczyć, w jaki sposób Google widzi stronę. Jeżeli skrypty lub pliki CSS są poblokowane otrzymuje się komunikaty błędów.

 Odkryj się przed Google!

Ostatnio Google wyraźnie komunikowało, że pokazanie robotom wizualnego obrazu strony jest bardzo istotne. Na oficjalnym blogu Google Webmasterblog, a następnie również bardzo jednoznacznie na Google+ . Pierre Far, pracownik Google napisał:


Co oznacza: Kto wyklucza Google z dostępu do plików CSS i Javascript, ten może poważnie zaszkodzić rankingom swojej strony. Wypowiedź jest jednoznaczna.

 

Co to oznacza w praktyce?

Google przykłada coraz większa wagę do tego, aby rozpoznać właściwie, na jakie miejsce w rankingu zasługuje dana strona internetowa pod względem swoich treści i wyglądu. Google bierze  pod uwagę design strony przy ustalaniu jej rankingu. Nie chodzi przy tym o to czy strona jest „ładna“ czy nie, ale o dobrą usability i prawidłową architekturę informacji zawartych na stronie.

 Co z robots.txt?

Ukrywanie linków  Javascriptem

Korzystanie z Javascript w linkowaniu wewnętrznym od dawna nie jest optymalnym sposobem działania. Ta technika często jest stosowana przez SEOwców ze skrzywieniem technicznym. Linki tworzone są skryptem, a jeżeli dostęp do niego jest zablokowany, to Google po prostu ich nie zauważa. Z tą metodą należy się definitywnie pożegnać.

Czy trzeba się pozbyć robots.txt?

Szczerze mówiąc, niewiele pozostaje powodów, aby wciąż korzystać z robots.txt. Tak czy inaczej, często wykluczone w robots.txt adresy URL, mimo tego pojawiają się w indeksie, bo Google nie ma dostępu do stron i nie może zapoznać się z zapisem “NOINDEX”. Warto wciąż wykluczać w robots.txt wszystkie obszary dostępne tylko logowaniu, szczególnie ze względu na „złe“ boty. W głównej mierze należy jednak pracować w oparciu o NOINDEX. Wykluczanie zbyt dużej części serwisu w robots.txt, moim zdaniem nie sprzyja pozytywnej ocenie w Google.

Pokaż Google jak wygląda twoja strona

Udostępnij CSS! Korzystaj z narzędzia „Pobierz jako Google” i sprawdź czy strona wygląda „normalnie” czy też dzieje się z nią cos dziwnego. Jeśli wygląda ona zupełnie inaczej niż w przeglądarce, to znak, że musisz cos z tym zrobić!

About Tomasz Sadowski

Profesjonalny pasjonat content marketingu i oddany wielbiciel technologii Google. Przedstawiciel w Polsce światowego lidera produkcji contentu TEXTBROKER.COM
Scroll To Top