Pozycjonowanie strony internetowej a treści niskiej jakości – część 2.

Pozycjonowanie

Druga część, w której przedstawiamy listę problemów z pozycjonowaniem strony internetowej wynikających z treści niskiej jakości. Każdy z punktów zawiera opracowane przez Padgetta praktyczne wskazówki podpowiadające co zrobić, aby problem rozwiązać bądź go uniknąć.

Pozycjonowanie strony internetowej a treści niskiej jakości – część 2.

W dzisiejszym artykule opowiemy o problemach technicznych przyczyniających się do powstawania treści niskiej jakości (thin content) i powielonej zawartości oraz io ich negatywnym wpływie na pozycjonowanie.

W naszym poprzednim wpisie opartym na artykuleRoberta Padgetta dla portalu State of Digital, omówiliśmy istotę treści niskiej jakości i ich wpływ na pozycjonowanie strony internetowej. Był to pierwszy wpis z serii. Teraz czas na konkrety! Oto pierwsza część listy problemów technicznych, które mogą utrzymywać Twoją stronę na niskiej pozycji w rankingach Google, a także praktyczne rozwiązania.

Fasetowa nawigacja

Problem: Fasetowa nawigacja umożliwia użytkownikom filtrowanie i zawężanie treści. Zazwyczaj każda kombinacja aspektów jest co najmniej jednym unikatowym adresem URL. Z tego powodu nawigacja fasetowa może tworzyć duplikaty treści, zabiera cenny czas indeksowania i może rozcieńczyć wartość linku przekazując link do adresów URL, których nie chcemy indeksować.

Rozwiązanie: użyj protokołu “noindex” do adresów URL wygenerowanych przez fasetową nawigację, które wyświetlają zduplikowaną treść. Jeśli nie jest to możliwe, możesz wdrożyć linki kanoniczne, tak aby wszystkie wariacje adresów wskazywały główny kanoniczny adres URL. Możesz także dołączyć znaczniki "no follow" w wewnętrznych linkach do tych fasetowych adresów URL, aby zmniejszyć szanse na ich zaindeksowanie. Aby mieć pewność, że Googlebot nie będzie ich indeksować, należy w pliku robots.txt zablokować dostęp do tej strony. W ten sposób zaoszczędzisz na czasie indeksowania.

Strony wyników wyszukiwania

Problem: dobrze, jeśli umożliwiasz użytkownikom wyszukiwanie informacji na Twojej witrynie. Jednak nie powinieneś pozwalać na indeksowanie stron wyników. Nie mają one unikatowej treści, a jedynie ponownie użyte fragmenty treści, tzw. “okruszki”, z innych stron internetowych.

Rozwiązanie: dodaj linie disallow w pliku robots.txt, aby roboty nie indeksowały strony wyników wyszukiwania. Powinny one również zawierać tag meta robots "noindex". Obejmuje to strony utworzone przez stronę wyszukiwania, sortowanie wyszukiwania lub filtry.

Parametry adresu URL (filtry, kolejność itp.)

Problem: Parametry mogą służyć do filtrowania, zawężania i porządkowania (ordering) treści na stronie. Parametry są dodawane na końcu kanonicznego adresu URL.

Rozwiązanie: dodaj kanoniczny link wskazujący kanoniczny adres URL. Ten tag poinformuje Google, że wszystkie te strony z parametrami to ta sama strona, a wariacje parametrów nie zostaną zaindeksowane. Korzystnym działaniem będzie również uniemożliwienie indeksowania często używanych parametrów adresu URL przez plik /robots.txt, aby zmaksymalizować czas indeksowania

Galeria zdjęć / wideo

Problem: To, jak wygląda galeria zdjęć na naszej stronie także ma wpływ na pozycjonowanie. Czasami struktura galerii zdjęć i filmów może tworzyć treść niskiej jakości. Może to być na przykład tworzenie jednej strony dla każdego zdjęcia bez żadnego tekstu wokół zdjęcia.

Rozwiązanie: Na każdej ze stron dodaj do zdjęcia uzupełniającą treść. Może to być naprawdę skomplikowane zadanie, jeśli masz tysiące zdjęć na swojej witrynie, a każde pod innym adresem URL. Zmiana struktury galerii i używanie karuzeli do wyświetlania zdjęć pod tym samym adresem URL może być łatwiejszym rozwiązaniem.

Kopia źle wpływa na pozycjonowanie. Adresy URL z- i bez www.

Problem: posiadanie kilku wariacji tego samego adresu URL może powodować powielanie treści. Dlatego ważne jest, aby wybrać tylko jedną wersję adresu URL dla każdej strony w Twojej witrynie, na przykład: http://domain.com vs http://www.domain.com

Rozwiązanie: Zrób przekierowanie wersji adresu, której nie preferujesz do wersji kanonicznej  przy użyciu protokołu 301 lub CNAME. .

Duże i małe litery w adresach URL

Problem: ten sam adres URL różniący się wielkością niektórych liter tworzy duplikat treści.

Rozwiązanie: Przekieruj wersję adresu z dużymi literami do tej pisanej małymi literami za pomocą protokołu 301.

Czy szczegół ma wpływ na pozycjonowanie? Ukośnik na końcu adresu.

Problem: Jest to kolejny element na liście, który może powodować powielanie wersji adresu URL. Wyszukiwarki uwzględniają URL-e, które renderują zarówno z końcowym ukośnikiem, jak i bez, jako różne adresy URL, co powoduje duplikowanie treści.

Rozwiązanie: Zrób przekierowanie wersji adresu, która jest duplikatem do wersji kanonicznej  przy użyciu protokołu 301.

Http a https

Problem: Przy pozycjonowaniu strony ważne jest, aby pamiętać, że Google promuje bezpieczne witryny. Adresy http i https stały się częstym problemem powodującym duplikowanie treści.

Rozwiązanie: Dodaj regułę przekierowania na swoim serwerze, która przekierowuje za pomocą protokołu 301 każdą wersję http do wersji kanonicznej https. Ważne jest także, aby zaktualizować każdy wewnętrzny link w witrynie, który wskazuje jedną z wersji https, aby uniknąć indeksowania za każdym razem, gdy robot odwiedza witrynę. Ponadto linki wewnętrzne http mogą powodować wyświetlanie przez przeglądarki niezabezpieczonych ostrzeżeń.

Index.htm, default.asp, itd.

Problem: Niekiedy strony domowe lub strony kategorii działają z kategorią główną i rzeczywistą stroną. Na przykład: www.domain.com vs www.domain.com/index.htm lub www.domain.com vs www.domena.com/default.asp

Rozwiązanie: Dodaj regułę przekierowania na serwerze, która za pomocą protokołu 301 przekierowuje stronę startową lub domyślną do katalogu głównego.

Identyfikatory sesji

Problem: identyfikatory sesji służą do śledzenia zachowania użytkowników, a czasami systemy odwołują się do używania identyfikatorów sesji w adresach URL jako parametrów.

Rozwiązanie: Jak wyjaśniono powyżej, problemy z parametrami wynikające ze zdublowanej treści można naprawić, dołączając na stronie link kanoniczny. Poza tym ważne jest, aby zablokować indeksowanie adresów URL identyfikatorów sesji za pomocą pliku robots.txt. Dzięki temu uniemożliwimy Googlom czasochłonne indeksowanie adresów URL z identyfikatorami sesji.

Jak widać, potencjalnych przyczyn powstawania stron odbieranych przez Google jako te z treścią niskiej jakości jest wiele. W naszym następnym wpisie podzielimy się z Wami kolejną “problematyczną” jedenastką.

Jak widzisz, warto zbadać swoją stronę pod względem jakości. Czy Twoja witryna jest bezpieczna? Może należy zmienić sposób wyświetlania zdjęć w galerii? Pytań jest jeszcze więcej- znajdziesz je w następnym poście, gdzie przedstawimy dalszą część problemów oraz praktycznych rozwiązań opracowanych przez Roberta Padgetta.

Źródło: http://www.stateofdigital.com/thin-content-guide/

Zobacz także

Używamy plików tekstowych zwanych „cookies” („ciasteczka”), by uczynić naszą stronę łatwiejszą w użytkowaniu. Dowiedz się więcej.

x