Optymalizacja SEO strony. Co zrobić, aby witryna była przystępna dla robotów?

Optymalizacja SEO strony. Co zrobić, aby witryna była przystępna dla robotów?

Strona internetowa, aby osiągnąć wysoką pozycję w wyszukiwarce, musi być odpowiednio przygotowana pod względem SEO. Optymalizacja strony jest zagadnieniem szerokim i składa się z wielu działań. Jednym z nich jest sprawdzenie, w jaki sposób roboty Google widzą daną witrynę, a następnie wprowadzenie na niej korzystnych zmian. Dzięki temu strona WWW będzie bardziej przystępna dla robotów wyszukiwarki, a co za tym idzie, także dla swoich potencjalnych użytkowników. Zobacz, o jakie funkcjonalności należy zadbać.

Czym są robots.txt i meta robots?

Podczas dostosowywania danej strony pod wymogi wyszukiwarki jednym z bardzo ważnych działań jest zadbanie o dostępność robotów do strony, a także przekazanie im o niej kluczowych informacji. Służą do tego robots.txt oraz meta robots.

Robots.txt to plik, przekazujący robotom informacje, do jakich zasobów mogą mieć dostęp, a do których nie. Plik ten daje różne możliwości, jednak kluczowe jest sprawdzenie, czy nie ma on żadnych błędów. Zablokowanie całej strony bądź jej części w pliku robots.txt może powodować znaczne obniżenie potencjału witryny lub nawet całkowite pozbawienie widoczności w wyszukiwarce.

Plik robots.txt umieszczany jest w katalogu głównym na serwerze strony. Przy użyciu tego pliku możliwe jest zarządzanie ruchem robotów indeksujących w danej witrynie. Jak więc zadbać o odpowiednią optymalizację pliku robots.txt? Należy wprowadzić do niego podstawowe dyrektywy i gotowy plik dodać do katalogu głównego witryny. Zawarte w robots.txt polecenia dla robotów wyszukiwarki, umożliwiają im lub ograniczają dostęp do konkretnych zasobów. Są to wytyczne dla robotów, które zazwyczaj są przez nie respektowane, jednak warto dodać, że czasami może być inaczej. Wszystko zależy już od samych robotów.

Dlaczego plik robots.txt może być przydatny? Przede wszystkim umożliwia w bardzo szybki sposób ograniczenie dostępu robotów do określonych sekcji strony, jeśli nie mogły one być wykluczone w inny sposób. To z kolei powoduje, że roboty nie tracą swoich zasobów na skanowanie podstron o niskiej wartości pod kątem SEO, takich jak na przykład podstrona logowania do serwisu.

Meta Robots (meta tag robots) to dane, które przekazują ważne informacje o danej stronie internetowej dla robotów. Tak samo, jak w przypadku robots.txt, niezbędne jest tutaj sprawdzenie, czy cała witryna lub jej część nie została zablokowana przed indeksacją. Blokada może spowodować, że strona w ogóle nie znajdzie się w wyszukiwarce Google! Jest to bardzo poważny błąd, gdyż w takim wypadku wszystkie pozostałe działania SEO nie przyniosą żadnego efektu. Taka sytuacja często ma miejsce podczas publikacji nowej strony. Stronę produkcyjną bowiem zwyczajowo wyklucza się z indeksacji i jeśli zdarzy się, że deweloper zapomni o jej odblokowaniu podczas publikacji, pojawia się wówczas spory problem.

Za pomocą różnego rodzaju meta tagów robots można zarządzać procesem indeksacji. Google rozumie pewne konkretne wartości. Podstawowe dyrektywy w meta robots dotyczą kwestii indeksacji witryny i żeby je określić, należy umieścić odpowiednie instrukcje. Najpierw trzeba użyć jednej z dwóch dyrektyw:

  • index – umożliwia indeksowanie strony,
  • noindex – uniemożliwia indeksowanie strony,

a następnie, po przecinku instrukcję dotyczącą linków na stronie:

  • follow – umożliwia robotom podążanie za odnośnikami,
  • nofollow – uniemożliwia robotom podążanie za odnośnikami.

Dla przykładu strona o pełnej dostępności dla robotów będzie miała następująco wyglądający tag:

<meta name="robots" content="index, follow">,

a całkowicie zablokowana:

<meta name="robots" content="noindex, nofollow">.

Warto dodać, że jeżeli tag w ogóle nie występuje na stronie, to roboty interpretują to domyślnie jako dyrektywy index, follow.

Wykonaj darmowy audyt strony i popraw jej widoczność w wyszukiwarce. Wykonaj teraz >>

Jakie przekierowania 301 należy ustawić?

Przekierowanie to sposób, za pomocą którego serwer danej strony internetowej informuje przeglądarkę o konieczności przeniesienia się pod inny adres, by mieć dostęp do treści. Najpopularniejszym rodzajem przekierowania jest przekierowanie 301, które jest wyjątkowo ważne pod kątem SEO, ponieważ pozwala przenieść „moc” przekierowanej podstrony na nową stronę docelową, co pomaga m.in. w pozbyciu się duplikatów, które obniżają wartość strony i jej pozycję w wyszukiwarce.

Przekierowanie WWW / bez WWW

Każda domena strony internetowej może występować w dwóch wariantach – z przedrostkiem WWW oraz bez niego. Dla robotów wyszukiwarek są to dwie oddzielne strony, a jeśli jest na nich identyczna zawartość, wyszukiwarka zinterpretuje to jako kopię treści, co może niekorzystnie wpłynąć na SEO.

Jak zatem rozwiązać ten problem? Konieczne jest ustawienie odpowiedniego przekierowania 301. Dzięki temu unikniemy duplikacji treści, a użytkownik bez względu na to, czy wpisze w pasek wyszukiwarki nasz adres z WWW, czy bez, zostanie przeniesiony na dokładnie tę samą stronę docelową. Najpopularniejszym sposobem - chociaż nie jedynym - jest ustawienie przekierowania 301 w pliku .htaccess, który jest umieszczony w katalogu głównym na serwerze. W pliku tym należy umieścić konkretną gotową regułę.

Przekierowanie index.php / index.html

Często zdarza się, że strona główna serwisu wyświetlana jest nie tylko w adresie głównym domeny, ale również na innych podstronach. W zależności od silnika strony może ona występować pod różnymi adresami, a do najpopularniejszych należą: /index.html i /index.php. Jeżeli taka sytuacja występuje, mamy do czynienia z wewnętrzną kopią treści, która także może niekorzystnie wpływać na SEO. Rozwiązaniem tego problemu jest odpowiednie ustawienie przekierowania 301 lub ustawienie linku kanonicznego, jeśli przekierowanie nie jest możliwe ze względów technicznych.

Przekierowanie adresu IP na domenę

Niektóre serwery są skonfigurowane tak, że po wpisaniu w pasku przeglądarki adresu IP danego serwera, strona internetowa będzie dostępna dla użytkowników i robotów indeksujących. Niestety to również może prowadzić do duplikacji treści. Jeśli okaże się, że Twoja strona jest duplikowana na adresie IP, konieczne będzie wdrożenie przekierowania owego adresu na domenę. W innych przypadkach przekierowanie nie jest konieczne, a często jest nawet niemożliwe do wykonania (jeśli na danym adresie iP znajduje się więcej niż jedna domena).

Czym jest certyfikat SSL?

Czynnikiem pozytywnie wpływającym na pozycję strony internetowej w wyszukiwarce jest także certyfikat SSL (ang. Secure Socket Layer). Jest to protokół sieciowy wdrażany na stronę w celu szyfrowania danych przesyłanych przez Internet. Gwarantuje użytkownikowi bezpieczeństwo i poufność przekazywanych informacji, takich jak np. dane osobowe, loginy, hasła czy numery kart kredytowych. Google wspiera bezpieczne dla odbiorców strony i umieszcza je na wyższej pozycji, dlatego certyfikat SSL jest istotny z punktu widzenia SEO.

Strona z certyfikatem SSL określa połączenie jako bezpieczne, a przez przeglądarki jest oznaczana w pasku adresu poprzez symbol zamkniętej kłódki oraz przedrostek HTTPS. W tym miejscu należy zaznaczyć, że nie można zapomnieć też o ustawieniu przekierowania strony z wersji HTTP na HTTPS.

Przeczytaj także

Widoczność w Google. Co oznacza TOP 3, TOP 10, TOP 50

Widoczność w Google. Co oznacza TOP 3, TOP 10, TOP 50

Głównym celem działań SEO jest wywindowanie pozycji strony internetowej w wynikach wyszukiwania. Wysoki ranking świadczy o jakości strony i przekłada się na liczbę wyświetleń, a co za tym idzie – na zyski. Dowiedz się więcej o widoczności w wyszukiwarce Google i sprawdź, co kryje się za określeniami TOP 3, TOP 10 czy TOP 50.

Artykuł - ikonka Czytaj więcej

Co oznacza adres URL przyjazny wyszukiwarce?

Co oznacza adres URL przyjazny wyszukiwarce?

Adresy URL powinny być przyjazne zarówno dla użytkowników, jak i robotów wyszukiwarki. Co to dokładnie oznacza? Poprawnie skonstruowane adresy URL powinny z jednej strony dobrze opisywać, co znajdziemy na stronie, a z drugiej być proste i czytelne. Takie adresy są zrozumiałe dla algorytmów, a także budzą zaufanie wśród użytkowników.

Artykuł - ikonka Czytaj więcej