Duplikaty stron witryny mogą być kompletne lub niekompletne. Te pierwsze całkowicie powtarzają strony kanoniczne, drugie robią to częściowo (opisy produktów, inne bloki tekstu).
Istnieje kilka możliwości ich znalezienia. Łatwiej jest znaleźć kompletne duplikaty. Aby zidentyfikować częściowe, będziesz musiał poświęcić więcej czasu i wysiłku. Tego procesu nie da się zautomatyzować.
Zduplikowane strony mają niewielki wpływ na ranking w Yandex. Ale Google jest wobec nich bardziej krytyczny. Może znacząco obniżyć Twoją pozycję w wynikach wyszukiwania.
Panel webmastera Google
W panelu Google WebMaster wybierz pozycję „Optymalizacja”, a w nim – „Optymalizacja HTML”. W wynikowej tabeli należy zwrócić uwagę na 2 punkty:- powtarzalne metaopisy;
- powtarzające się tytuły.
Kliknięcie na każdą z nich otwiera dostęp do zduplikowanych stron. Po znalezieniu wszystkich niekanonicznych duplikatów możesz je usunąć (jeśli nie są potrzebne), podać link do adresu kanonicznego lub użyj przekierowania 301 do klejenia luster.
Strony zawierające zduplikowaną treść należy zapisać w momencie ich tworzenia specjalnie - na przykład dla wersji mobilnej serwisu lub wersji drukowanej. Tekst może się powtarzać – np. na stronie głównej oraz w kategoriach produktów (często w sklepy online ). W takim przypadku lepiej przepisać jedną z opcji.
Za pomocą paska wyszukiwania
W linii wyszukiwania musisz wpisać konstrukcję „site:adres_strony_strony -site:adres_strony_strony/&”. Będzie odzwierciedlał wszystkie strony witryny z indeksu ogólnego, z wyjątkiem tych w indeksie głównym. Ten projekt pozwala zidentyfikować:- strony nieinformacyjne;
- częściowe duplikaty.
System uważa je za niepotrzebne, pozbawione informacji lub spamujące, co obniża ogólną pozycję witryny w wynikach wyszukiwania. Opcja „Powtórz wyszukiwanie z brakującymi wynikami” umożliwia uzyskanie bardziej całościowego obrazu tego, co się dzieje.
W wyszukiwarce Yandex można wyszukiwać częściowe duplikaty w poszczególnych fragmentach tekstu. Pokazuje wszystkie wyniki w obrębie witryny, co pozwala wyeliminować problematyczne obszary.
Xenu
Specjalny program do optymalizacji zasobów to kolejna możliwość wyszukiwania duplikatów. Może się okazać, że będzie skuteczniejszy. Jest to istotne, jeśli witryna istnieje stosunkowo niedawno i nie wszystkie strony kanoniczne lub zduplikowane są uwzględnione w indeksie. Program samodzielnie analizuje witrynę. Wyświetla zduplikowane treści i skraca czas potrzebny na rozwiązanie problemu.Dlaczego występują duplikaty?
Istnieje kilka powodów pojawiania się duplikatów:- funkcje silnika witryny. Wiele CMS duplikuje strony pod innymi adresami, aby rozwiązać pewne problemy. Istniejące wtyczki i tagi umożliwiają pozbycie się tego problemu;
- brak doświadczenia webmastera. Jest to szczególnie prawdziwe w przypadku dużych witryn. Nie będzie możliwe natychmiastowe zidentyfikowanie i wyeliminowanie wszystkich błędów. Okresowe sprawdzanie i optymalizacja zmniejszy prawdopodobieństwo ich wystąpienia;
- słabo przemyślany kod. Brak przekierowań, metatagów i nieprawidłowe działanie stron 404 to częsta przyczyna pojawiania się duplikatów;
- dużo tej samej treści. Problem ten jest krytyczny w przypadku dużych sklepów internetowych z dużą liczbą identycznych produktów. Aby uniemożliwić robotowi wyszukiwania postrzeganie opisów jako spamu, można je wyświetlić za pośrednictwem technologii Ajax lub iFrame.
Jakie problemy mogą powodować duplikaty stron:
- obniżenie oceny z powodu spamu;
- rozproszenie masy łącza. Naturalne linki użytkowników do zduplikowanych stron mają mniejszy efekt;
- nakładka filtra ;
- utrata masy wewnętrznej.
Eliminowanie zduplikowanych stron to ważne zadanie, które należy wykonywać okresowo.