W tym punkcie omów różnice między tagiem meta noindex a atrybutem nofollow. Wyjaśnij, jak każde z nich wpływa na indeksowanie strony przez roboty Google i jakie są ich zastosowania. Podkreśl, że noindex blokuje indeksowanie całej podstrony, podczas gdy nofollow tylko uniemożliwia przekazywanie reputacji linkowanym witrynom.
W poprzednim punkcie omówiliśmy, że tag meta noindex służy do blokowania indeksowania całej podstrony przez roboty Google. Jest to skuteczny sposób na wykluczenie danej strony z indeksu wyszukiwarki. Natomiast atrybut nofollow, stosowany w linkach, uniemożliwia przekazywanie reputacji linkowanym witrynom. Oznacza to, że linki z atrybutem nofollow nie wpływają na pozycjonowanie stron, do których prowadzą.
Różnica między tymi dwoma elementami polega więc na zakresie ich działania. Noindex blokuje całą podstronę przed indeksowaniem, podczas gdy nofollow dotyczy tylko poszczególnych linków na stronie. Oba narzędzia są przydatne w różnych sytuacjach. Noindex jest idealny do wykluczania stron, które nie mają wartości dla widoczności witryny w wynikach wyszukiwania. Nofollow natomiast pozwala kontrolować przekazywanie autorytetu strony i może być używany na przykład w przypadku linków reklamowych lub komentarzy użytkowników.
Jak już wcześniej wspomnieliśmy, istnieje wiele powodów, dla których nie wszystkie podstrony powinny być uwzględniane w indeksie wyszukiwarki Google. Jednym z głównych argumentów jest ograniczenie budżetu indeksowania, znane również jako Crawl Budget. Roboty indeksujące Google mają określoną liczbę podstron, które mogą zaindeksować w obrębie danej domeny. Dlatego ważne jest skoncentrowanie się na najważniejszych stronach, które przynoszą najwięcej wartości z punktu widzenia widoczności strony w wynikach wyszukiwania.
Ponadto, istnieją podstrony, które nie mają dużej wartości dla użytkowników ani dla wyszukiwarek internetowych. Mogą to być podstrony z niską jakością treści, które nie przyciągają ruchu organicznego, lub wyniki wyszukiwania i sortowania produktów w sklepach internetowych. Inne przykłady to podstrony powstałe w wyniku personalizacji oferty lub podstrony logowania, rejestracji czy koszyka w sklepie internetowym. Wykluczenie tych podstron z indeksu pozwala zoptymalizować wykorzystanie Crawl Budgetu i skupić się na bardziej istotnych stronach witryny.
Aby sprawdzić, czy dana podstrona znajduje się w indeksie Google, istnieje kilka różnych sposobów. Można skorzystać z komend do wpisywania w wyszukiwarkę, takich jak "site:nazwadomeny" lub "inurl:frazy kluczowe". Pierwsza komenda, "site:nazwadomeny", wyświetli wszystkie zaindeksowane podstrony danej witryny. Natomiast druga komenda, "inurl:frazy kluczowe", pokaże zaindeksowane wyniki zawierające określone słowa kluczowe w adresach URL.
Innym sposobem jest sprawdzenie stanu indeksacji poszczególnych podstron za pomocą narzędzia Google Search Console. Po zalogowaniu się do tego narzędzia i przejściu do zakładki "Indeks" -> "Stan", można sprawdzić, czy dana podstrona jest obecna w indeksie Google.
Aby zablokować indeksowanie wybranych podstron, można skorzystać z pliku robots.txt. Jest to specjalny plik umieszczany na serwerze, który służy do komunikacji z robotami indeksującymi wyszukiwarek internetowych. Dzięki niemu można określić, które zasoby strony powinny być dostępne dla robotów, a które nie.
Aby skonfigurować plik robots.txt w celu blokowania indeksowania podstron, należy dodać instrukcję "Disallow" dla każdej podstrony, którą chcemy wykluczyć. Instrukcja ta informuje roboty, że dana podstrona nie powinna być indeksowana. Przykładowy kod dla instrukcji "Disallow" wygląda następująco:
Przykład
|
Kod
|
---|---|
Blokowanie całej podstrony
|
Disallow: /podstrona/
|
Blokowanie konkretnego pliku
|
Disallow: /plik.html
|
Ważne jest jednak ostrożne skonfigurowanie pliku robots.txt, ponieważ błędnie wprowadzone instrukcje mogą spowodować problemy dla strony. Dlatego zaleca się skonsultowanie się z osobą mającą doświadczenie w tej dziedzinie lub skorzystanie z narzędzi dostępnych online, które pomogą w generowaniu poprawnego pliku robots.txt.
W celu tymczasowego wykluczenia podstron z indeksu, można skorzystać z narzędzia Google Search Console. W sekcji "Usunięcia" tego narzędzia istnieje możliwość złożenia prośby o usunięcie konkretnego adresu URL z indeksu wyszukiwarki. Jest to przydatne rozwiązanie w przypadku, gdy chcemy tymczasowo ukryć daną podstronę przed użytkownikami.
Jednak warto pamiętać, że to rozwiązanie działa tylko tymczasowo przez około 6 miesięcy. Po upływie tego czasu podstrona może ponownie zostać uwzględniona w indeksie wyszukiwarki. Dlatego jeśli zależy nam na stałym wykluczeniu podstrony, lepiej skorzystać z innych metod, takich jak tag meta noindex czy plik robots.txt.
Kolejnym sposobem na wykluczenie podstron z indeksu wyszukiwarki Google jest wykorzystanie meta tagu kanonicznego (rel="canonical"). Ten tag informuje roboty indeksujące, że dana podstrona zawiera taką samą treść jak inna podstrona, której adres jest podany w tagu kanonicznym. Dzięki temu można uniknąć duplikacji treści i skierować uwagę robotów na główną wersję danej strony.
Przykładowy kod dla meta tagu kanonicznego wygląda następująco:
<link rel="canonical" href="kanoniczny-adres-podstrony" />
Dodanie tego meta tagu do podstrony spowoduje, że roboty indeksujące Google będą traktować ją jako duplikat innej strony i nie będą jej uwzględniać w wynikach wyszukiwania. To skuteczne rozwiązanie, aby wykluczyć niepotrzebne podstrony z indeksu i skupić się na najważniejszych stronach witryny.
Zobacz przykłady dobrze i źle przeprowadzonych migracji.
Pobierz darmowy e-book