Gorąco zachęcamy, aby przed kontynuacją lektury zapoznać się z wcześniejszym tekstem dotyczącym mitów o SEO. Będzie to dobry wstęp do tego niedługiego, acz - naszym zdaniem - wartościowego tekstu. Pozycjonowanie i SEO to bowiem procesy kompleksowe, więc takiego samego typu powinna być o nich wiedza.
Jeżeli natomiast zapoznaliście się już z tym, co wcześniej mieliśmy do powiedzenia o nieprawdziwych informacjach dotyczących działań w naszej branży, czas przejść do kolejnej porcji mitów i bajek…
W perspektywie pogoni Google za jakościowymi treściami brzmiałoby to sensownie, aczkolwiek zaznaczamy, że jest to bajka. Tworzenie indywidualnego contentu jest bez wątpienia cenne i ważne (o czym poniżej), ale Google nie obniży pozycji Twojej strony internetowej lub sklepu internetowego, jeżeli zauważy na niej powieloną treść. Wyszukiwarka w najgorszym wypadku treści te zignoruje.
Twórcy algorytmu Google zdają sobie doskonale sprawę z faktu, że w internecie muszą pojawiać się zduplikowane albo bardzo podobne do siebie treści. Wyobraźmy sobie, że w świecie wydarzyło się właśnie coś ważnego, o czym portale informacyjne muszą napisać jak najszybciej. Oczywistym jest, że w tekstach pojawią się te same same sformułowania i fakty. Innym przykładem są wysoko specjalistyczne teksty, w których również - z natury rzeczy i niemożliwości wykorzystania synonimów - pojawią się takie same frazy.
Oryginalność contentu strony nie podniesie automatycznie jej pozycji w wynikach wyszukiwania, ale sprawi, że ryzyko “walki” o miejsce na pierwszej stronie z witryną o takiej samej treści będzie zminimalizowane. Pamiętajmy również, że żadna treść nie jest idealna z perspektywy SEO i można ją (jak i samą witrynę) zawsze poprawić. W tym tkwi moc unikalnych treści na stronach internetowych.
Byłoby cudownie, gdyby w procesie optymalizacji SEO i pozycjonowania można byłoby uwzględniać tylko 3 czynniki, prawda? Niestety - aby osiągnąć sukces to nie wystarczy.
Kilka lat temu, Andrey Lipattsev z Google stwierdził, że w pozycjonowaniu najważniejszy jest content strony internetowej, zaplecze linków i tzw. RankBrain, czyli sztuczna inteligencja wspomagająca algorytmy Google.
Informacja ta była szokująca dla pozycjonerów, którzy do swojej pracy podchodzili znacznie szerzej. Jak się później okazało, ich trud był słuszny. W kilka dni od rewelacji Lipattseva doniesienia te “złagodził” inny specjalista Google - John Mueller - który oświadczył, że o ile content i linki są ważne, o tyle na ostateczną pozycję strony w wyszukiwarce wpływa ponad 200 czynników rankingujących.
Posiadanie Sitemap XML jest na pewno pożyteczne, ale ma się ono nijak do ostatecznej pozycji naszej strony internetowej w wynikach wyszukiwania Google.
Sitemap XML jest swoistym drogowskazem dla robotów Google mówiącym o strukturze witryny. Mapa strony nie poprawi więc jej pozycji w wyszukiwarce, ale może za to skutecznie wpłynąć na szybkość indeksacji witryny.
Nie! Rzeczywiście, najnowsze algorytmy Google zwracały uwagę na szybkość działania strony na urządzeniach mobilnych, jak również obniżały pozycje witryn odznaczających się najwolniejszym performancem, ale w ogólnym rozrachunku wynik PageSpeed nie wpłynął na widoczność stron w wynikach wyszukiwania.
Nie oznacza to jednak, że o szybkość strony nie należy zabiegać. Performance wpływa bowiem na odbiór strony przez użytkowników, zmniejsza współczynnik odrzuceń, a to znów wpływa na wizerunek witryny w “oczach” robotów Google.
Warto również zwrócić uwagę na fakt, że jeżeli wydajność strony jest niezadowalająca i zwalnia pod wpływem crawlowania ze strony Google, to roboty zmniejszą liczbę requestów wysyłanych w jej stronę, co znów może odbić się negatywnie na jej pozycji w wyszukiwarce.
Kolejne 4 mity na temat SEO zostały obalone! Mamy nadzieję, że powyższe fakty pomogą Wam w podejmowaniu wartościowych działań z zakresu SEO i pozycjonowania bez zbytniego przywiązywania wagi do nieskutecznych metod mających pozornie poprawić wyniki strony w wyszukiwarkach. Powodzenia! :)
Zobacz przykłady dobrze i źle przeprowadzonych migracji.
Pobierz darmowy e-book