Różnice między noindex a nofollow - jakie są i jak je stosować?

5
(62)


W tym punkcie omów różnice między tagiem meta noindex a atrybutem nofollow. Wyjaśnij, jak każde z nich wpływa na indeksowanie strony przez roboty Google i jakie są ich zastosowania. Podkreśl, że noindex blokuje indeksowanie całej podstrony, podczas gdy nofollow tylko uniemożliwia przekazywanie reputacji linkowanym witrynom.

Różnice między noindex a nofollow - jakie są i jak je stosować?

W poprzednim punkcie omówiliśmy, że tag meta noindex służy do blokowania indeksowania całej podstrony przez roboty Google. Jest to skuteczny sposób na wykluczenie danej strony z indeksu wyszukiwarki. Natomiast atrybut nofollow, stosowany w linkach, uniemożliwia przekazywanie reputacji linkowanym witrynom. Oznacza to, że linki z atrybutem nofollow nie wpływają na pozycjonowanie stron, do których prowadzą.

Różnica między tymi dwoma elementami polega więc na zakresie ich działania. Noindex blokuje całą podstronę przed indeksowaniem, podczas gdy nofollow dotyczy tylko poszczególnych linków na stronie. Oba narzędzia są przydatne w różnych sytuacjach. Noindex jest idealny do wykluczania stron, które nie mają wartości dla widoczności witryny w wynikach wyszukiwania. Nofollow natomiast pozwala kontrolować przekazywanie autorytetu strony i może być używany na przykład w przypadku linków reklamowych lub komentarzy użytkowników.

Dlaczego nie wszystkie podstrony powinny być w indeksie Google?

Jak już wcześniej wspomnieliśmy, istnieje wiele powodów, dla których nie wszystkie podstrony powinny być uwzględniane w indeksie wyszukiwarki Google. Jednym z głównych argumentów jest ograniczenie budżetu indeksowania, znane również jako Crawl Budget. Roboty indeksujące Google mają określoną liczbę podstron, które mogą zaindeksować w obrębie danej domeny. Dlatego ważne jest skoncentrowanie się na najważniejszych stronach, które przynoszą najwięcej wartości z punktu widzenia widoczności strony w wynikach wyszukiwania.

Ponadto, istnieją podstrony, które nie mają dużej wartości dla użytkowników ani dla wyszukiwarek internetowych. Mogą to być podstrony z niską jakością treści, które nie przyciągają ruchu organicznego, lub wyniki wyszukiwania i sortowania produktów w sklepach internetowych. Inne przykłady to podstrony powstałe w wyniku personalizacji oferty lub podstrony logowania, rejestracji czy koszyka w sklepie internetowym. Wykluczenie tych podstron z indeksu pozwala zoptymalizować wykorzystanie Crawl Budgetu i skupić się na bardziej istotnych stronach witryny.

Jak sprawdzić, czy podstrona jest zaindeksowana przez Google?

Aby sprawdzić, czy dana podstrona znajduje się w indeksie Google, istnieje kilka różnych sposobów. Można skorzystać z komend do wpisywania w wyszukiwarkę, takich jak "site:nazwadomeny" lub "inurl:frazy kluczowe". Pierwsza komenda, "site:nazwadomeny", wyświetli wszystkie zaindeksowane podstrony danej witryny. Natomiast druga komenda, "inurl:frazy kluczowe", pokaże zaindeksowane wyniki zawierające określone słowa kluczowe w adresach URL.

Innym sposobem jest sprawdzenie stanu indeksacji poszczególnych podstron za pomocą narzędzia Google Search Console. Po zalogowaniu się do tego narzędzia i przejściu do zakładki "Indeks" -> "Stan", można sprawdzić, czy dana podstrona jest obecna w indeksie Google.

Jak zablokować indeksowanie podstrony za pomocą pliku robots.txt?

Aby zablokować indeksowanie wybranych podstron, można skorzystać z pliku robots.txt. Jest to specjalny plik umieszczany na serwerze, który służy do komunikacji z robotami indeksującymi wyszukiwarek internetowych. Dzięki niemu można określić, które zasoby strony powinny być dostępne dla robotów, a które nie.

Aby skonfigurować plik robots.txt w celu blokowania indeksowania podstron, należy dodać instrukcję "Disallow" dla każdej podstrony, którą chcemy wykluczyć. Instrukcja ta informuje roboty, że dana podstrona nie powinna być indeksowana. Przykładowy kod dla instrukcji "Disallow" wygląda następująco:

Przykład
Kod
Blokowanie całej podstrony
Disallow: /podstrona/
Blokowanie konkretnego pliku
Disallow: /plik.html

Ważne jest jednak ostrożne skonfigurowanie pliku robots.txt, ponieważ błędnie wprowadzone instrukcje mogą spowodować problemy dla strony. Dlatego zaleca się skonsultowanie się z osobą mającą doświadczenie w tej dziedzinie lub skorzystanie z narzędzi dostępnych online, które pomogą w generowaniu poprawnego pliku robots.txt.

Wykluczanie podstron za pomocą narzędzia Google Search Console

W celu tymczasowego wykluczenia podstron z indeksu, można skorzystać z narzędzia Google Search Console. W sekcji "Usunięcia" tego narzędzia istnieje możliwość złożenia prośby o usunięcie konkretnego adresu URL z indeksu wyszukiwarki. Jest to przydatne rozwiązanie w przypadku, gdy chcemy tymczasowo ukryć daną podstronę przed użytkownikami.

Jednak warto pamiętać, że to rozwiązanie działa tylko tymczasowo przez około 6 miesięcy. Po upływie tego czasu podstrona może ponownie zostać uwzględniona w indeksie wyszukiwarki. Dlatego jeśli zależy nam na stałym wykluczeniu podstrony, lepiej skorzystać z innych metod, takich jak tag meta noindex czy plik robots.txt.

Wykorzystanie meta tagu kanonicznego do wykluczenia podstron z indeksu

Kolejnym sposobem na wykluczenie podstron z indeksu wyszukiwarki Google jest wykorzystanie meta tagu kanonicznego (rel="canonical"). Ten tag informuje roboty indeksujące, że dana podstrona zawiera taką samą treść jak inna podstrona, której adres jest podany w tagu kanonicznym. Dzięki temu można uniknąć duplikacji treści i skierować uwagę robotów na główną wersję danej strony.

Przykładowy kod dla meta tagu kanonicznego wygląda następująco:

<link rel="canonical" href="kanoniczny-adres-podstrony" />

Dodanie tego meta tagu do podstrony spowoduje, że roboty indeksujące Google będą traktować ją jako duplikat innej strony i nie będą jej uwzględniać w wynikach wyszukiwania. To skuteczne rozwiązanie, aby wykluczyć niepotrzebne podstrony z indeksu i skupić się na najważniejszych stronach witryny.

Aldona Liszka

Content Marketing Manager

Aldona, w Internetica odpowiedzialna za działania contentowe i komunikację w Social Mediach. Absolwent Humanistyki Cyfrowej. Interesuje się nowymi mediami.

Oceń tekst

Średnia ocen 5 / 5. Liczba głosów: 62


Powrót do listy artykułów
Zaufali nam
Nasz zespół
Łukasz Iwanek

CEO

Hubert Wasilewski

Team Leader DOK

Marcin Żelazny

Starszy Doradca Klienta - Ekspert

Marcin Zagórski

Programista

Marta Bilska

Specjalista PPC

Monika Boguska

Copywriter

Andrzej Antoszewski

Opiekun Klienta

Anna Biedrzycka

Specjalista PPC

Katarzyna Bogucka

Opiekun Klienta

Daniel Czyżewski

Specjalista SEO

Aldona Liszka

Content Marketing Manager

Krystian Sakowicz

Doradca Klienta

Kamila Czerwonka

Sales Development Representative

Karolina Wasztyl

Spec. SEO

Dawid Kotowicz

Młodszy Specjalista SEO

Copyright 2007-2025 ©Internetica. Wszelkie prawa zastrzeżone.
Facebook LinkedIn