Słownik Seo

Słownik SEO – pojęcia z zakresu pozycjonowania i optymalizacji stron internetowych


Jeśli chcesz zadbać o wysoką pozycję swojej strony internetowej, musisz koniecznie zapoznać się z szeregiem pojęć z zakresu pozycjonowania i optymalizacji. Nie są to proste tematy i często sprawiają kłopot osobom początkującym. Jak odnaleźć się w gąszczu trudnych słów? Z pomocą przychodzi nasz słownik SEO.

Dopiero rozpoczynasz przygodę z pozycjonowaniem? Koniecznie zapoznaj się z naszym obszernym słownikiem. Skomplikowane pojęcia przedstawiliśmy w formie krótkich, a zarazem treściwych definicji pisanych prostym i zrozumiałym językiem. Przyjazna forma sprawia, że nawet osoba początkująca bez trudu zrozumie nawet nieprzystępne na pierwszy rzut oka tematy.

Wszystkie najważniejsze definicje zebraliśmy w jednym miejscu. Są tu zarówno pojęcia popularne, jak i te rzadziej spotykane. Wiele pojęć ma różne nazwy, a także polskie odpowiedniki, dlatego staraliśmy się uwzględnić wszystkie warianty. Ułożyliśmy je alfabetycznie, dlatego szybko odnajdziesz interesujący termin. Teraz z łatwością zapoznasz się z definicjami i śmiało wejdziesz do świata SEO.

Lista pojęć SEO

A/B Testing (testy A/B)

Metoda badawcza, która polega na porównaniu dwóch wersji np. strony WWW czy też kampanii mailingowej. Zazwyczaj wariant A to aktualny wygląd strony, zaś B to jej nowy wygląd. Celem testów A/B jest zbadanie zachowań i preferencji użytkowników. Następnie na ich podstawie wybierana jest lepsza wersja, która w większym stopniu spełnia oczekiwania internautów.

AI (Artificial Intelligence – sztuczna inteligencja)

AI, czyli Artificial Intelligence, po polsku sztuczna inteligencja, to systemy, które działają na podobieństwo ludzkiego mózgu. Wykonują zadania, zbierają dane i na tej podstawie tworzą nowe metody i stają się coraz lepsze. W przypadku AI proces nauki nazywa się uczeniem maszynowym (machine learning). Jeśli chodzi o SEO, Google wykorzystuje AI do doskonalenia swoich algorytmów.

AJAX

AJAX (ang. Asynchronous JavaScript And XML) to technologia pozwalająca na dynamiczne generowanie treści: aktualizuje contentu strony internetowej bez jej przeładowywania, wysyłanie żądania do serwera i otrzymywanie danych już po załadowaniu witryny oraz wysyłanie danych do serwera w tle.

AJAX używa XML do transportu danych, ale można także wykorzystywać tę technologię przy transporcie danych jako zwykłego tekstu albo tekstu JSON.

Above the Fold (ATF)

Above the Fold (ATF) to termin wykorzystywany przy projektowaniu stron internetowych. Oznacza pierwszy widok witryny bezpośrednio po jej włączeniu i załadowaniu w oknie przeglądarki. Jest to więc obszar strony, który widzi użytkownik przed rozpoczęciem scrollowania. Będzie się on różnił w zależności od wykorzystywanego urządzenia. W sekcji powinny znaleźć się ważne treści dla odwiedzającego. ATF stanowi przeciwieństwo Below the Fold i często decyduje o pierwszym wrażeniu internauty.

Accelerated Mobile Pages (AMP)

AMP, czyli Accelerated Mobile Pages, to technologia open source, dzięki której można przyspieszyć działanie strony. Jej zastosowanie pozwala na dostosowanie zawartości witryny do parametrów narzędzia, np. wielkości ekranu. Do AMP należą 3 elementy: AMP HTML, AMP JS oraz AMP Cache (opcja dodatkowa).

Adres ip

IP Address, czyli adres IP, to skrót od Internet Protocol Address. To unikalny numer, który przypisany jest komputerom lub innym urządzeniom w sieciach komputerowych. Pod jednym adresem może znajdować się więcej niż jedno urządzenie. Adres IP zapisywany jest w postaci czterech oktetów (oddzielonych kropkami).

Algorytm Google

Regularnie aktualizowany i udoskonalany zbiór reguł, który pozwala wyszukiwarce dokładnie określić, który wynik najlepiej pasuje do wpisanego przez użytkownika zapytania. Na algorytm Google składa się mnóstwo wskaźników, na których podstawie dopasowywane są poszczególne pozycje w wynikach wyszukiwania.

Anchor Text

Anchor text to tekst (zakotwiczony) na stronie internetowej, będący klikalną częścią hiperłącza i prowadzący do dokumentu lub innej witryny. Zwykle wyróżniony innym kolorem. Rodzaje anchor text to:

  • zero match (generyczny) — w formie call-to-action (CTA), wezwania do kliknięcia, nie wskazuje, o czym jest tekst,
  • markowy — stosuje się nazwę marki lub witryny,
  • exact match — zawiera frazę kluczową, powiązaną ściśle z linkowaną stroną,
  • partial match — warianty słowa kluczowego,
  • nagi —surowy link.

Atrybut Alt

Inaczej alt tag, alt tekst, opis alt lub opis alternatywny. Jest to kod HTML, który opisuje zawartość grafiki na stronie. Pozwala wyświetlić użytkownikowi alternatywną tekstową wersję obrazu, gdy z jakichś powodów obraz ten nie może on się poprawnie załadować. Dostarcza też informacji wyszukiwarkom i pozwala im lepiej zrozumieć, co znajduje się na danej grafice, a w efekcie lepiej zrozumieć także tematykę strony WWW.

Audyt SEO

Audyt SEO to proces, który ocenia poszczególne elementy strony internetowej pod kątem jej pozycji w wynikach wyszukiwania. Analiza bierze pod uwagę wszelkie czynniki on-page i off-page, czego wynikiem jest raport przedstawiający mocne i słabe strony audytowanej witryny pod względem Search Engine Optimization. Wyniki wskazują obszary ryzyka oraz błędy, które należy uwzględnić w procesie pozycjonowania strony, aby zwiększyć zaangażowanie odwiedzających serwis użytkowników.

Author Authority (autorytet autora)

Autorytet autora to koncept, w którym reputacja autora oraz jego wcześniejsze publikacje traktowane są jako czynnik rankingowy. Publikowanie treści na godnych zaufania stronach internetowych, buduje autorytet i wiarygodność twórcy, a tym samym zwiększa autorytet platform, na których dane treści są prezentowane.

Authority (autorytet strony)

Autorytet to jedna z wartości, jaką wyszukiwarka przydziela stronom internetowym. Im większa wartość, tym większa szansa na wysoką pozycję w organicznych wynikach wyszukiwania. Silniki wyszukiwania, na potrzeby rankingu, mierzą jakość witryny i jej odbiór przez użytkowników. Poziom jakości jest oceniany przez czynniki on-page i off-page.

Auto-Generated Content

Auto-Generated Content, czyli treść generowana automatycznie, tworzona jest w celu indeksowania dużej ilości stron. Przykładem mogą być treści tłumaczone automatycznie i nieredagowane przez człowieka, a także łączenie treści z różnych źródeł bez zmieniania ich formy (w konsekwencji nie są one unikalne). Auto-Generated Content często uznawany jest przez Google za szkodliwy, ponieważ wpływa negatywnie na UX, czyli wrażenia użytkownika. Są to zwykle treści niskiej jakości.

Baidu (wyszukiwarka w Chinach)

Baidu jest wyszukiwarką internetową, powszechnie określaną jako chińskie Google. Z uwagi na wycofanie się Google z chińskiego rynku (z powodu wysokiej cenzury), Baidu stało się najpopularniejszą wyszukiwarką internetową w tamtym regionie. Baidu oferuje także takie narzędzia jak mapy, tłumacza, a także własną wersję Wikipedii.

Ban

Najbardziej surowa kara nakładana przez Google na domenę internetową. Powodem nałożenia kary jest poważne złamanie regulaminu Google i łamanie wytycznych dla webmasterów. Do działań takich zaliczyć można np. kopiowanie treści z innych stron lub generowanie ogromnej liczby spamowych, niskiej jakości linków. Ban powoduje, że domena jest całkowicie usuwana z wyszukiwarki.

Below the Fold (BTF)

Below the Fold (BTF) to część strony internetowej, która jest widoczna dopiero po przewinięciu kursora w dół. W przeciwieństwie do Above the Fold materiały umieszczone w tej sekcji nie wyświetlają się na pierwszym ekranie. Poniżej linii załamania publikuje się z reguły zawartość mniej atrakcyjną dla czytelników. Obszar ten może jednak wpływać na zachowania użytkowników w witrynie. W Below the Fold warto umieścić np. linki do podobnych artykułów lub dalszych informacji.

Bing – (wyszukiwarka internetowa)

Bing jest wyszukiwarką internetową, wprowadzoną na rynek w 2009 roku przez firmę Microsoft. Bing jest bezpośrednią konkurencją Baidu, ale pozostaje daleko w tyle względem wyszukiwarki Google. Sama wyszukiwarka wyewoluowała z poprzednich produktów spod szyldu Microsoftu – MSN Search, Windows Live Search, a później Live Search.

Black Hat SEO

Black Hat SEO są to techniki pozycjonowania stron internetowych, które są niezgodne z zasadami Google. Na takie działania mogą zostać nałożone kary, w wyniku czego strona obniży swoją pozycję w wyszukiwarce. Do technik Black Hat SEO należą m.in. keyword stuffing, czyli upychanie słów kluczowych, ukrywanie treści i linków, a także publikowanie contentu niskiej jakości. Przeciwieństwem jest White Hat SEO, czyli działania prawidłowe spełniające wymogi wyszukiwarek.

Blog

Blog to strona internetowa zawierająca wpisy uporządkowane w chronologiczny sposób. Może mieć charakter osobisty lub branżowy. Jest ważny dla SEO, bo pozytywnie wpływa na pozycjonowanie strony firmy w wyszukiwarce. Występuje w formie:

  • tekstowej — blog opiera się na pisanych treściach; mikroblog zawiera tylko kilka zdań,
  • fotobloga — publikowane są na nim zdjęcia,
  • wideobloga (vloga) — składa się z tematycznych nagrań wideo,
  • linkloga — zawiera linki, kierujące do różnych witryn.

Bot

Robot wyszukiwarki, którego zadaniem jest przeglądanie, analizowanie i indeksowanie stron internetowych. Najbardziej popularnym botem jest Googlebot, który wykrywa nowe i zaktualizowane strony i dodaje je do swojej wewnętrznej bazy.

Bounce Rate (współczynnik odrzuceń)

Bounce Rate, czyli współczynnik odrzuceń to wskaźnik określający, ilu internautów po wejściu na stronę, szybko ją opuściło bez podejmowania dalszego działania. Zwykle powodem takiego zachowania jest to, że odwiedzana witryna internetowa nie jest przyjazna dla użytkownika. Zbyt długo się ładuje, nie pozwala na łatwą nawigację, nie jest dostępna na telefonie. Należy zadbać o te elementy, by współczynnik odrzuceń był jak najniższy. Analiza Bounce Rate informuje o pierwszym wrażeniu, jakie robi strona.

Branded Keywords (słowa kluczowe dotyczące marki)

Branded keywords, czyli markowe słowa kluczowe. Takim określeniem nazywa się frazy, które zawierają nazwę firmy lub marki, a także jej odmiany i są unikalne dla danej domeny.

CLS (Cumulative Layout Shift)

CLS, czyli Cumulative Layout Shift jest jednym ze wskaźników Core Web Vitals opracowanych przez Google, który mierzy stabilność wizualną witryny podczas jej wczytywania. W języku polskim skrót CLS oznacza zbiorcze przesunięcie obrazu. Dzięki temu miernikowi jesteśmy w stanie zbadać wrażenia użytkownika, a dokładniej częstotliwość przypadków, gdy odwiedzający naszą stronę napotyka na niespodziewany ruch jej zawartości. Zmianę układu może spowodować np. dynamiczny content czy nieodpowiednia czcionka.

CMS (Content Management System)

System Zarządzania Treścią. Pozwala wprowadzać, edytować, aktualizować czy usuwać treści na stronie internetowej (teksty, grafiki, zdjęcia, filmy itd.) bez konieczności znajomości kodu HTML. Panel administracyjny jest łatwy w użyciu i umożliwia wygodne zarządzanie treściami na stronie. Przykładem popularnego systemu CMS jest WordPress.

CSS (Cascading Style Sheets)

Język, który opisuje rozmieszczenie elementów na stronie WWW. Określa m.in. typ czcionki, kolory, formatowanie elementów itd. Aby go zdefiniować, należy użyć znacznika "style" bądź arkusza stylów, określającego układ graficzny całej strony. Każda strona ma jeden bądź więcej plików CSS.

CTA (Call to Action – wezwanie do działania)

CTA (Call to Action – wezwanie do działania) — sformułowanie, którego zadaniem jest skłonienie odbiorcy do podjęcia określonej czynności, np. kliknięcia w link, zapisania się do newslettera, pobrania e-booka. Najczęściej stosuje się w nim wyrażenia w trybie rozkazującym (“Zapisz się teraz!”). Ważne, by łączyło się z powodem, który dla odbiorcy oznacza konkretną korzyść i informowało o kolejnych krokach. Możesz je umieścić na banerze lub landing page, w formie zdjęcia, przycisku lub anchor text.

CTR (Click Through Rate - współczynnik klikalności)

CTR to współczynnik mówiący o częstotliwości klikania w reklamę lub bezpłatne informacje o produkcie. Jest pomocny przy analizowaniu skuteczności słów kluczowych i reklam. By uzyskać wynik, liczba kliknięć reklamy dzielona jest przez liczbę jej wyświetleń. Pożądany jest wysoki współczynnik, który świadczy o tym, że reklamy trafiają do odbiorców.

Cache (pamięć podręczna)

Cache, czyli pamięć podręczna to system przechowywania informacji, który pozwala na gromadzenie danych z przeglądarki internetowej w części przestrzeni dyskowej na urządzeniu użytkownika np. na komputerze PC, laptopie czy w telefonie komórkowym. Zapisanie konkretnych plików w pamięci podręcznej, sprawia, że ich ponowne pobranie z serwera podczas kolejnych odwiedzin nie jest konieczne. Umiejętne wykorzystanie cache umożliwia szybsze wczytywanie się stron WWW.

Canonical URL (kanoniczny adres URL)

Canonical, czyli link kanoniczny, adres kanoniczny, kanonikal, to meta tag umieszczony w sekcji <head> na stronie internetowej. W teorii wskazuje wyszukiwarce, który URL jest oryginalny, czyli kanoniczny, i właśnie ten zostaje zaindeksowany przez roboty. Stosowanie kanonikali pomaga ograniczyć zjawisko duplicate content (duplikacji treści), które może zachodzić, gdy do jednej strony prowadzi kilka linków o podobnej treści. Link kanoniczny jest jedynie wskazówką, przez co nie zawsze Google musi go wybrać.

Click Depth

Click Depth, czyli głębokość kliknięć, to liczba kliknięć potrzebnych do przejścia ze strony startowej do docelowej podstrony w obrębie witryny. Im więcej kliknięć, tym mniejsza szansa na to, że dana podstrona zostanie zaindeksowana i zajmie wysoką pozycję w wynikach wyszukiwania. Podstrony znajdujące się najbliżej strony startowej są z kolei uznawane za autorytatywne i z większym prawdopodobieństwem zostaną zaindeksowane.

Clickbait

Clickbait (ang. click – kliknięcie, bait – przynęta) to zjawisko w Internecie polegające na stosowaniu sensacyjnych tytułów lub grafik, które wyolbrzymiają znaczenie/przekaz treści. Ich głównym celem jest przyciąganie uwagi odbiorców i generowanie zysków z reklam kosztem tworzenia wartościowych i wiarygodnych materiałów.

Za clickbait można uznać powyżej opisaną strategię, jak również sam tytuł, wówczas mówimy o tzw. tytule clickbaitowym.

Cloaking

Jedna z metod Black Hat SEO. Polega ona na tym, że robotom wyszukiwarki prezentowana jest zupełnie inna treść niż użytkownikom, którzy odwiedzają daną stronę.

Code To Text Ratio (stosunek kodu do tekstu)

Code To Text Ratio, czyli stosunek kodu do tekstu, określa ilość tekstu na stronie w stosunku do kodu użytego do skonstruowania tej strony. Zakłada się, że na lepszy User Experience (UX) wpływa wyższy stosunek tekstu do kodu, natomiast nie jest bezpośrednim czynnikiem wpływającym na pozycję strony WWW.

Content (treść)

Content to treści, grafiki lub dźwięki, których celem jest przekazywanie informacji do odbiorców. Jest jednym z najważniejszych czynników rankingowych Google. Nagradzany przez wyszukiwarki content musi być jednak wartościowy, unikalny i angażujący. Ważne, aby odpowiadał wyczerpująco na zapytania użytkowników.

Content Delivery Network (CDN)

Content Delivery Network (CDN) to wysoce rozproszona sieć serwerów, której celem jest dostarczenie treści internetowych do użytkowników w sposób błyskawiczny i bezpieczny. Witryny korzystające z tego prostego rozwiązania ładują się zdecydowanie szybciej, ponieważ zmniejsza ono fizyczną odległość pomiędzy serwerem a internautą. Ten kluczowy element funkcjonowania sieci może więc zmniejszyć wskaźnik odrzuceń. Obecnie nawet połowa ruchu w Internecie jest obsługiwana przez sieci CDN.

Content Marketing (marketing treści)

Content Marketing (marketing treści) — strategia internetowa, której celem jest zdobywanie klientów poprzez tworzenie, dystrybuowanie i promocję treści w różnej formie. Podstawą jest zainteresowanie oraz zbudowanie długotrwałej i lojalnej relacji, która ma prowadzić w przyszłości do zakupu produktu danej marki. CM zwiększa ruch na stronie, wpływając na pozycję w Google. Treści muszą być dopasowane do potrzeb odbiorcy. To marketing, w którym na pierwszym miejscu jest klient.

Conversion Rate Optimization (CRO)

Optymalizacja wskaźnika sprzedaży jest procesem, którego celem jest poprawa jakości lub ilości konwersji na danej stronie internetowej. W celu optymalizacji wskaźnika sprzedaży podejmować można się szeregu działań, do których należy między innymi: stosowanie przycisków CTA (call to action), wprowadzanie zmian w projekcie danej witryny lub optymalizacji samej treści zawartej w obrębie danej strony WWW.

Copywriting SEO

Copywriting SEO — tworzenie tekstów na strony internetowe, przyjaznych zarówno wyszukiwarkom, jak i odbiorcom, na podstawie słów (fraz) kluczowych. Ma na celu generowanie ruchu na stronie, tym samym polepszając jej pozycję w wyszukiwarce. Poprzez treści marka buduje swoją pozycję w Internecie i zaufanie czytelników. Ci zaś w przyszłości mogą stać się klientami. Ważnymi elementami treści SEO są: tytuł, lead, nagłówki, metaznaczniki, długość tekstu oraz forma (grafiki, akapity, wypunktowania).

Core Update

Core Update to, odbywająca się kilka razy w ciągu roku, znacząca aktualizacja algorytmu Google. Zgodnie z dewizą Google celem takich zmian jest poprawa jakości wyników wyszukiwania oraz usprawnienie działania systemów i algorytmów. Core Update jest istotny przede wszystkim dla właścicieli stron internetowych, ponieważ w zależności od wprowadzonych zmian w algorytmie, mogą oni doświadczyć znaczących wzrostów lub spadków wizyt użytkowników.

Core Web Vitals

Wskaźniki, za pomocą których Google informuje, na co należy zwrócić uwagę, jeśli chcemy poprawić stronę WWW pod kątem szybkości działania i doświadczeń użytkowników, którzy ją odwiedzają. Dzięki temu można zadbać o komfort korzystania z witryny i znaleźć się na wyższych pozycjach w wynikach wyszukiwania. Wskaźniki Core Web Vitals to:

  • LCP – Lagrest Contentful Paint,
  • FID – First Input Deley,
  • CLS – Cumulative Layout Shift.

Crawl Budget

Crawl Budget, czyli czynnik określający liczbę adresów URL lub podstron w obrębie jednej domeny, jaką robot Google jest w stanie odwiedzić podczas pojedynczej wizyty na stronie internetowej. Wskazuje, jak wiele czasu i mocy obliczeniowej boty poświęcają, aby zaindeksować daną witrynę. Wpływ na budżet indeksowania strony mają przede wszystkim dwa parametry: Crawl Rate Limit, czyli limit współczynnika indeksacji i Crawl Demand określający częstotliwość indeksacji.

Crawler (robot wyszukiwarki)

Crawler, nazywany także pająkiem lub botem, to program wykorzystywany przez wyszukiwarki internetowe. Pozwala on na badanie struktury, zawartości i kodu stron. Na tej podstawie, wyszukiwarki internetowe decydują, które strony najlepiej odpowiadają na konkretne zapytania użytkowników. Najbardziej znanym Crawlerem jest Googlebot, który często wykorzystywany jest przez specjalistów SEO. Jego zadaniem jest wykrywanie nowych i zaktualizowanych stron oraz dodawanie ich do swojej wewnętrznej bazy.

Crawling

Crawling, jest to skanowanie, przeszukiwanie Internetu, w celu odnalezienia i odczytania zawartości stron. Cały proces przebiega automatycznie przy użyciu crawlerów, czyli inaczej botów, robotów wyszukiwarek (najpopularniejszym jest Googlebot).

Cross-linking

Cross-linking to proces łączenia dwóch stron internetowych, którego głównym celem jest zwiększenie liczby linków przychodzących. Dzięki tej praktyce strona można znaleźć się na wyższej pozycji w wynikach wyszukiwania i uzyskiwać większą liczbę odwiedzających.

Wyróżnia się trzy rodzaje cross-linków:

  • naturalne – spontaniczne odwołanie do witryny w treści,
  • prywatne – linkowanie pomiędzy stronami jednego właściciela,
  • outreach – linki utworzone poprzez kontakt z właścicielami innych witryn.

Czynnik rankingowy (Ranking Factor)

Element, który ma wpływ na pozycję strony WWW w organicznych wynikach wyszukiwania. Czynników tych jest ponad 200. Znaczenie niektórych z nich zmienia się przy kolejnych aktualizacjach algorytmów Google. Przykładowymi czynnikami rankingowymi są wysokiej jakości treści na stronie, szybkość ładowania strony, bezpieczeństwo witryny czy jej dostosowanie do urządzeń mobilnych.

ccTLD (krajowa domena najwyższego poziomu)

CCtld to krajowa domena najwyższego poziomu. Takie domeny zarezerwowane są dla konkretnych państw i terytoriów zależnych, a nawet autonomicznych i odrębnych obszarów geograficznych. Domeny CCtld składają się zawsze z dwóch liter, np. ‘’.pl’’ lub ‘’.uk’’.

„Content is King” („treść jest królem’’)

‘’Content is King’’, czyli w dosłownym tłumaczeniu ‘’Treść jest królem’’, to fraza powszechnie używana przez prelegentów oraz autorów publikacji dotyczących SEO. W tym kontekście, angażujący i unikatowy content jest niezbędny do osiągnięcia sukcesu w zakresie SEO i marketingu internetowego.

Dane strukturalne

Dane strukturalne (ang. rich snippets) nazywane również danymi uporządkowanymi to informacje ułatwiające algorytmom wyszukiwarek rozpoznanie zawartości danej strony internetowej. Mówiąc inaczej, opisują i kategoryzują kontent opublikowany na stronie.

Umieszczane są w kodzie witryny jako specjalne znaczniki za pomocą formatów: Microdata, RDFa, JSON-LD. Dzięki danym strukturalnym wyszukiwarki lepiej rozumieją treść zawartą na stronie oraz kontekst publikowanych informacji.

De-indeksowanie (De-indexing)

De-indeksowanie to jeden z procesów SEO – polega na usunięciu witryny z indeksu wyszukiwarki. W wyniku tego działania strona internetowa lub określony adres URL nie są już widoczne w wynikach wyszukiwania. Powodem usunięcia może być takie zjawisko jak duplicate content, wystąpienie błędu 400 czy treść słabej jakości.

Dead-End Page

Strona internetowa, która nie ma żadnych linków. Jest nazywana jako ślepy zaułek, gdyż nie da się z niej nigdzie dostać. Użytkownik, który odwiedzi taką stronę nie ma możliwości dalszej nawigacji, pozostaje mu więc opuścić witrynę, klikając przycisk ,,wstecz’’ lub zamknąć kartę przeglądarki.

Depozycjonowanie

Depozycjonowanie (ang. negative SEO) to przeciwieństwo pozycjonowania, czyli wszelkie działania, które mają na celu pogorszenie pozycji danej witryny w wynikach wyszukiwania.

Depozycjonowanie może być odbierane dwojako: pozytywnie (walka z nieuczciwą konkurencją – tzw. White Hat SEO – np. poprzez zgłaszanie nieetycznie działających stron) lub negatywnie (działanie na szkodę konkurencji – tzw. Black Hat SEO – np. poprzez powielanie treści).

Direct Traffic (ruch bezpośredni)

Direct Traffic (ruch bezpośredni) oznacza ruch na stronie, którego źródłem nie jest link na innej witrynie. Ruch opisuje zakładka w Google Analytics. Direct traffic uzyskuje się, gdy użytkownik:

  • sam wpisał adres strony w przeglądarce (z polecenia, billboardu reklamowego, czy błędu technicznego),
  • wszedł na stronę z zakładki,
  • kliknął w link przez pocztę elektroniczną lub komunikatory internetowe,
  • trafił na stronę przez dokument Word, Excel, PDF lub inny.

Ruch direct świadczy o rozpoznawalności i zaufaniu do marki.

Domain Authority (autorytet domeny)

Domain Authority, czyli autorytet domeny to popularność danej strony internetowej na tle innych adresów. Autorytet domeny mierzony jest w skali od 1 do 100. Dzięki Domain Authority można określić szanse badanej strony internetowej w walce z konkurencyjnymi stronami o wysoką pozycję w organicznych wynikach wyszukiwania (SERP).

Sposób porównywania stron pod tym kątem opracowała firma MOZ. Oparty jest on m.in. na analizowaniu linków przychodzących.

Domain Name System (DNS)

System Nazw Domenowych. Jest to system, którego zadaniem jest tłumaczenie czytelnych i zrozumiałych dla ludzi nazw domenowych na zrozumiałe dla komputerów adresy IP (ciągi liczb) potrzebne do realizacji połączenia.

Domena

Domena to adres strony, który wyświetla się w pasku przeglądarki. Jest jednocześnie unikalną nazwą w Internecie, pod którą można umieścić witrynę WWW. Stanowi obok hostingu niezbędny element do uruchomienia własnego serwisu. Domeny opierają się na systemie DNS (Domain Name System), czyli sieci rozproszonych po świecie serwerów. Składają się z dowolnej nazwy głównej i końcówki. Rejestracją unikalnego adresu strony internetowej zajmuje się centralny organ ICANN.

Doorway Page (strona przejściowa)

Doorway Pages to strony internetowe, pozycjonowane na określone słowa kluczowe, których jedynym celem jest przekierowania użytkownika na stronę docelową – zwykle internauta nie jest w ogóle świadomy, że odwiedził niepożądaną stronę. Tworzenie stron przejściowych należy do zakazanych technik Black Hat SEO. Takie strony wyłącznie zbierają ruch, nie spełniają potrzeb użytkowników.

DuckDuckGo

DuckDuckGo to wyszukiwarka internetowa, która stawia na prywatność swoich użytkowników. Założyciele twierdzą, że nie śledzą IP internautów i ciasteczek cookies, a co za tym idzie, nie monitorują zachowań użytkowników w sieci oraz nie kolekcjonują żadnych danych na ich temat. DuckDuckGo stawia na otwarte oprogramowanie i preferuje wyświetlanie w wynikach rzetelnych źródeł informacji, nie faworyzując przy tym personalizacji reklam.

Duplikacja treści (Duplicate Content)

O Duplicate Content, czyli duplikacji treści mówimy, gdy dokładnie ta sama treść pojawia się pod kilkoma adresami URL. Zjawisko może występować w obrębie jednej domeny (wewnętrzny Duplicate Content), jak również w obrębie wielu domen (zewnętrzny Duplicate Content).

Duplikacja treści może mieć negatywny wpływ na pozycję strony w organicznych wynikach wyszukiwania, gdyż algorytmy wyszukiwarek mogą uznać powielony materiał za plagiat. Dotyczy to przede wszystkim treści pisanych.

Dwell Time

Czas spędzony na stronie. Jak sama nazwa wskazuje, jest to czas, jaki użytkownik spędza na danej stronie internetowej. Liczony jest zaraz po kliknięciu linku w wynikach wyszukiwania. Im dłuższy czas, tym lepiej, gdyż oznacza to, że internauta znalazł na stronie to, czego szukał.

E-commerce

Zjawisko e-commerce jest integralną częścią współczesnej ekonomii. Samo pojęcie definiujemy jako handel elektroniczny, czyli szereg działań wykonywanych w celu dokonania transakcji za pomocą elektronicznych środków przekazu takich jak strony internetowe. E-commerce jest więc prowadzeniem sprzedaży i dokonywaniem zakupów online.

EAT (Expertise-Authoritativeness-Trustworthiness)

EAT (Expertise-Authoritativeness-Trustworthiness) — to trzy czynniki, którymi powinna charakteryzować się strona, aby uzyskać wysoką pozycję w wyszukiwarce. Eksperckość to jakościowe treści, odpowiadające potrzebom odbiorcy. Na autorytet składają się autor, treść i sama strona. W branżach specjalistycznych na postrzeganie strony wpłyną prezentowani autorzy-eksperci. Zaufanie wzbudza np. podawanie wiarygodnych i sprawdzonych źródeł. EAT ma bardzo duże znaczenie w branżach YMYL (your money, your life), czyli prawniczych, ubezpieczeniowych, medycznych.

Evergreen Content

Evergreen Content — treści, które się nie dezaktualizują, np. poradniki. Generują ruch bez względu na sezonowość. Powinny zawierać silne, stałe i zyskujące na popularności frazy kluczowe. Teksty mogą wymagać aktualizacji, jeśli dotyczą rozwijającej się obecnie branży, istniejącego zjawiska. Ważne jest, by były przyjazne dla odbiorcy i zaspokajały jego potrzeby. Dobrze jest zawrzeć w nich linki, zwiększając tym samym czas sesji  na stronie i budując pozycję w Google.

Exact Match Anchor Text

Exact Match Anchor Text jest jednym z rodzajów anchor textu. Anchor text jest tekstem odnośnika. Jest to treść aktywna, w którą możemy kliknąć i dostać się w miejsce, w które kieruje hiperłącze. Exact Match Anchor Text to ściśle dopasowany anchor text. Odpowiada dokładnie słowu kluczowemu. Nadużywanie tego typu anchor textu nie jest wskazane, gdyż może zostać uznane za spamowanie.

Exact Match Domain

Exact Match Domain („dokładnie dopasowana domena”) to nazwa domeny, która brzmi dokładnie tak samo jak fraza kluczowa wyszukiwania dotycząca zawartości domeny. Na przykład dla frazy „kupię tanie auto” będzie to www.kupietanieauto.pl albo dla frazy „fryzjer kielce” – www.fryzjerkielce.pl .

Głównym celem EMD jest tworzenie ruchu na stronie. Jednak nie zawsze ta metoda działa, czasami roboty wyszukiwarek odczytują domeny EMD jako spam.

Exact Match Keywords

Słowo kluczowe o ścisłym dopasowaniu. Odnosi się ono do dopasowania fraz kluczowych w Google Ads. Chodzi tutaj o to, że reklama pojawi się w wynikach wyszukiwania tylko wówczas, gdy internauta wpisze konkretne słowo bądź frazę w podanej kolejności.

External Duplicate Content

External Duplicate Content, czyli zewnętrza duplikacja treści to popularne zjawisko szczególnie w branży SEO. Oznacza powielanie zawartości z innych stron internetowych (zarówno konkurencyjnych, jak i partnerskich). Treści występujące w jednakowej formie na różnych domenach są zagrożeniem dla pozycji witryny w wynikach wyszukiwania. Nieetyczne praktyki kopiowania contentu są niezgodne z wytycznymi wyszukiwarki i wiążą się z karami od Google w postaci ostrzeżenia, filtra lub blokady.

FID (First Input Delay)

Jeden ze wskaźników Core Web Vitals, który dotyczy interaktywności. Wskaźnik ten jest wyrażany w milisekundach. Jest to czas liczony od momentu, w którym internauta wejdzie w interakcję z witryną, np. kliknie, do momentu reakcji przeglądarki na to kliknięcie. Bardzo dobrym wynikiem jest 100 milisekund lub mniej.

Favicon

Favicon jest to ikona niewielkich rozmiarów, którą możemy zobaczyć obok tytułu witryny w karcie przeglądarki. Jest ważnym elementem dla użytkownika, który może szybko skojarzyć ikonę z konkretną stroną. Zaleca się, by każda witryna miała swój unikalny favicon, ponieważ buduje to rozpoznawalność, wzbudza zaufanie i oszczędza czas użytkownika. Obecność favicona przynosi pośrednie korzyści dla SEO, ponieważ zwiększa użyteczność witryny.

Filtr

Filtr jest to kara nałożona albo ręcznie przez pracownika Google, albo za pomocą algorytmu. Ten rodzaj sankcji wynika z nieprzestrzegania przepisów regulaminu wyszukiwarki i może być konsekwencją np. działań prowadzonych w ramach Black Hat SEO. W rezultacie dochodzi do obniżenia pozycji strony internetowej w wynikach wyszukiwania lub całkowitego usunięcia domeny z indeksu. Przekłada się to na spadek ruchu w witrynie. Wyróżnia się dwa rodzaje filtra Google: częściowe i całościowe.

Freshness (świeżość)

Termin freshness używany jest w odniesieniu do wieku publikowanych w sieci treści. W ramach algorytmu Query Deserves Freshness (QDF), Google definiuje, które zapytania internautów wymagają podawania najświeższych informacji, i na podstawie określonych czynników, daje pierwszeństwo wyświetlania konkretnym treściom. Dotyczy to m.in. wyników rozgrywek sportowych czy też najnowszych informacji dotyczących COVID-19.

Geolokalizacja

Geolokalizacja to mechanizm, dzięki któremu istnieje możliwość określenia położenia użytkownika danej strony WWW. Jest to możliwe za sprawą adresu IP lub systemu GPS.

Określenie położenia użytkownika pozwala wyświetlać spersonalizowane reklamy, np. dotyczące ofert z danej okolicy. Co więcej, geolokalizacja wpływa także na pozycjonowanie wybranych fraz kluczowych. Wyniki wyszukiwania są zależne od tego, gdzie znajduje się użytkownik.

Geotargeting

Inaczej kierowanie geograficzne. Jest to praktyka, która polega na dopasowywaniu wyników wyszukiwania i reklam do miejsca, w którym dany użytkownik się znajduje. Pozwala więc dotrzeć do grupy docelowej na podstawie jej lokalizacji.

Google

Google to amerykańskie przedsiębiorstwo z branży informatycznej, które wokół swojego głównego produktu, przeglądarki internetowej Google Chrome, zbudowało całą sieć narzędzi i aplikacji ułatwiających m.in. poruszanie się w sieci czy też zarządzanie danymi. Google jest również zaangażowane w rozwój systemu operacyjnego android.

Google Analytics

Google Analytics to jedno z narzędzi Google, które pozwala na przeanalizowanie statystyk ruchu oraz zachowania użytkowników na stronie internetowej. Narzędzie jest darmowe i daje wiele możliwości m.in., możemy dowiedzieć się, ile osób w konkretnym czasie odwiedziło witrynę, ile z nich powróciło, ponadto przyjrzeć się działaniom, jakie podjęli użytkownicy i skąd trafili na stronę, a także sprawdzić czas trwania sesji czy współczynnik odrzuceń.

Google Bomb

Google Bomb (także Google Bombing) to praktyka działań SEO mająca na celu poprawienie pozycji strony internetowej w organicznych wynikach wyszukiwania. „Bombardowanie” najczęściej polega na sztucznym zawyżaniu liczby stron zawierających link do danej witryny oraz słów zawartych w treści linku.

Metoda Google Bomb uznawana jest za black-hat-SEO, czyli działanie nie fair. Google stara się zapobiegać tego typu praktykom.

Google My Business (Google Moja Firma)

Google My Business, czyli Google Moja Firma to darmowa usługa przeznaczona do tworzenia wizytówek przedsiębiorstw, które działają lokalnie. Umożliwia dostarczenie internautom najbardziej przydatnych informacji na temat firmy, które zostaną udostępnione w wyszukiwarce i Mapach Google. Mogą to być takie dane jak np. adres, numer telefonu, opinie klientów czy godziny otwarcia. Narzędzie sprzyja lokalnemu pozycjonowaniu i pozwala ponadto nawiązywać kontakty z klientami.

Google PageSpeed Insights

PageSpeed Insights jest darmowym narzędziem Google, które służy do weryfikacji czasu ładowania strony internetowej, a więc bada jej szybkość, a co za tym idzie wydajność. Krótki czas ładowania witryny jest istotny dla wygody użytkownika. Za pomocą PageSpeed Insights można ocenić, jak strona wypada zarówno na desktopach, jak i urządzeniach mobilnych. Po skorzystaniu z narzędzia otrzymujemy wyniki w skali od 1 do 100, a także raport oraz wskazówki, co należy poprawić.

Google Pigeon Update

Google Pigeon Update to wprowadzona w 2014 roku zmiana algorytmów Google, która miała znaczący wpływ na jakość wyszukiwania lokalnego. Celem aktualizacji Pigeon było dokładniejsze wyszukiwanie wyników, które powiązane są z lokalnymi frazami. Beneficjentami tej aktualizacji są więc przede wszystkim aktywnie działające firmy lokalne.

Google Sandbox

Google Sandbox, czyli tak zwana piaskownica, to filtr, który nakładany jest na nowo powstałe strony internetowe, co uniemożliwia im osiąganie wysokich pozycji w wynikach wyszukiwania. Do takiej piaskownicy trafiają witryny, na których zawarte jest wiele słów kluczowych, które charakteryzują się dużą klikalnością i są konkurencyjne. Efekt Google Sandbox mija w momencie, gdy dana strona WWW zyskuje odpowiednią wiarygodność i autorytet.

Google Search Console

Google Search Console to narzędzie stworzone przez markę Google. Służy do monitorowania pozycji danej witryny w wynikach wyszukiwania. Pozwala także odnaleźć problemy analizowanej witryny i je rozwiązywać, np. problemy z indeksowaniem adresu lub spamem.

Dzięki Google Search Console dowiesz się m.in., jak często Twoja strona wyświetla się w wynikach wyszukiwania i jakie zapytania powodują, że pojawia się użytkownikom.

Google Search Quality Rater Guidelines

Google Search Quality Rater Guidelines to dokument przeznaczony dla Kontrolerów Jakości, zawierający wytyczne stosowane podczas manualnego sprawdzania witryn. Wytyczne opisują, w jaki sposób tworzyć wartościowe treści i zawierają m.in. koncepcję E-A-T. Początkowo dokument ten był poufny, następnie został upubliczniony, a informacje w nim zawarte są aktualizowane od czasu do czasu.

Google Webmaster Guidelines (wskazówki dla webmasterów)

Wytyczne Google nakierowują webmasterów m.in. na tworzenie unikalnych i angażujących stron internetowych, które są dopasowane do wymagań internautów, a nie wyszukiwarek internetowych. Wskazówki Google zalecają także unikanie technik i sztuczek, które zwodzą użytkowników, a ich jedynym celem jest poprawa rankingów wyszukiwania.

Googlebot

Googlebot to robot wykorzystywany przez Google, który automatycznie zbiera informacje i analizuje stronę internetową. Indeksuje witrynę w wyszukiwarce i monitoruje, czy pojawiły się na niej nowości. Podąża za linkami umieszczonymi na stronie. Rodzaje działań Googlebota:

  • deep crawl — dokładny przegląd,
  • fresh crawl — wielokrotne sprawdzanie strony w ciągu dnia,
  • main crawl — śledzenie głównych podstron.
  • Możliwe jest zablokowanie podstron, aby robot ich nie śledził.

Grey Hat SEO

Zbiór dozwolonych, ale wątpliwie etycznych i budzących kontrowersje praktyk pozycjonowania. Jedną z takich technik jest np. kupowanie lub sprzedawanie linków. GHS znajduje się na pograniczu Black Hat SEO, czyli działań niedozwolonych, a White Hat SEO, a więc optymalizacją zgodną z wytycznymi Google.

H1–H6 (nagłówki HTML)

H1–H6 (nagłówki HTML) - występują w tekstach internetowych. To: tytuł, podtytuł i śródtytuły. Najważniejszym znacznikiem jest H1 i ma największe znaczenie dla SEO. Musi być pisany największą czcionką. Kolejne są niższego poziomu. Warunkiem użycia niższych tagów jest użycie wyższych. Ważne, by w nagłówku I stopnia (i innych) zawarta była fraza kluczowa, dzięki czemu wyszukiwarka uzna treść za wartościową i łatwiej ją zaindeksuje. Nagłówki zachęcają i ułatwiają internaucie czytanie tekstu.

HTML

HTML (ang. HyperText Markup Language, czyli hipertekstowy język znaczników) to język, którego używa się przede wszystkim do tworzenia stron internetowych (dokumentów hipertekstowych).

W języku HTML można określić, jak dany tekst będzie prezentował się w przeglądarce: ustalić akapit, hiperłącza, ramki, wyróżnienia i wiele innych elementów. Podczas przeglądania strony w przeglądarce nie widzimy znaczników HTML, lecz ich efekt, czyli stronę internetową.

HTTP

HyperText Transfer Protocol. Główny protokół sieciowy, używany przez przeglądarki internetowe w celu pobierania zasobów stron WWW. Pozwala na wyświetlanie i odbieranie informacji.

HTTPS

HTTPS to skrót od wyrażenia Hypertext Transfer Protocol Secure. W ten sposób określana jest zabezpieczona wersja protokołu HTTP. Jej głównym celem jest szyfrowanie certyfikatem SSL lub TLS danych przesyłanych pomiędzy przeglądarką internetową a serwerem. W ten sposób informacje o właścicielu strony i jej użytkownikach są chronione przed przechwyceniem, odczytaniem czy ingerencją. Protokół HTTPS staje się standardem dla wszelkich witryn internetowych i jest wymagany przez wyszukiwarkę Google.

Hidden Text (tekst ukryty)

Hidden Text to jedna z niedozwolonych technik pozycjonowania stron internetowych należąca do Black Hat SEO. Polega na zastosowaniu zawartości, która nie jest widoczna przez użytkowników, ale może zostać odczytana przez roboty wyszukiwarki. Najprostszą metodą jest zmiana barwy fontu na kolor tła. Celem ukrytego tekstu jest uzyskanie jak najwyższej pozycji na dane słowa kluczowe. Stosowanie takich działań może doprowadzić do nałożenia przez Google kary lub nawet wykluczenia serwisu z indeksu.

Historia domeny (domain history)

Na historię domeny składają się wszystkie linki zwrotne, które do niej prowadzą oraz sama strona internetowa, która została zbudowana na danej domenie. W przypadku, gdy witryna, która była na danej domenie, otrzymała karę, przyszły właściciel domeny będzie musiał mierzyć się z konsekwencjami płynącymi z takiego rozwiązania. Przed zakupem domeny warto więc wnikliwie przeanalizować jej historię. Historia domeny ma bowiem wpływ na czas pozycjonowania oraz samą pozycję strony (im starsza domena, tym bardziej wartościowa).

Hosting

Hosting to udostępnianie innym przestrzeni i zasobów serwera. Zwykle w celu prowadzenia stron internetowych i obsługi poczty. Rodzaje hostingu to: współdzielony, dedykowany (twój własny serwer), serwer wirtualny — VPS (część serwisu jest twoja), chmura (Cloud Serwer).

Hreflang

Atrybut hreflang to jeden z ważnych aspektów międzynarodowego SEO. Służy poinformowaniu robotów wyszukiwarek, że strona internetowa posiada różne wersje językowe dla użytkowników z różnych regionów świata lub odbiorców posługujących się różnymi językami. Odpowiednim miejscem dla atrybutu jest sekcja <head> w kodzie strony. Zastosowanie hreflangu zmniejsza współczynnik odrzuceń witryny, a powiązane w ten sposób serwisy nie są traktowane jako duplikacja treści.

Htaccess (plik konfiguracyjny)

Htaccess (skrót od Hypertext Access) jest to domyślny plik konfiguracyjny serwera Apache. Umożliwia m.in. ustawienie przekierowań, zablokowanie dostępu dla botów czy ustawienie własnej strony błędu 404. Dlatego też pliki te odgrywają kluczową rolę z punktu widzenia SEO i bezpieczeństwa.

Image SEO (pozycjonowanie obrazów)

Image SEO, czyli pozycjonowanie obrazów, polega na odpowiednim zoptymalizowaniu grafik, by znalazły się one na wysokich pozycjach w wyszukiwarce. Należy spełnić kilka warunków: grafiki powinny być wysokiej jakości (mogą to być darmowe stocki, ale szczególnie pożądane są autorskie zdjęcia), pasować do kontekstu w jakim się znajdują, być atrakcyjne i przyciągające wzrok, a także odpowiednio opisane. Jest to szczególnie ważne dla robotów, które nie są w stanie odczytać grafik opisanych np. zestawem cyfr i liter. Opis powinien odzwierciedlać dokładnie to, co znajduje się na zdjęciu.

Indeks

Indeks to baza danych wyszukiwarki. Zawiera strony internetowe i informacje o nich. Kolejność danych dobierana jest przez algorytmy Google, które szukają jak najtrafniejszej odpowiedzi na zadane zapytanie. Indeks rozbudowuje się dzięki robotom wyszukiwarki, znajdującym i analizującym nowe strony oraz monitorującym aktualności w witrynach.

Indeksacja strony

Indeksacja strony to proces dodawania witryny do indeksu Google, który może potrwać od kilku dni do kilku tygodni. W tym celu specjalne programy, czyli roboty sieciowe zbierają informacje o treści, frazach kluczowych, obrazach czy linkach znajdujących się w serwisie, a następnie zapisują je w bazie danych wyszukiwarki. Przechowywane w ten sposób adresy URL są wyświetlane w wynikach wyszukiwania po wpisaniu przez użytkownika określonego zapytania.

Indeksowanie

Indeksowanie jest to proces zbierania danych ze stron, ich przetwarzania, a następnie gromadzenia. W wyniku indeksowanie strony zostają dodane do bazy wyszukiwarki. Indeksowanie przeprowadzają roboty Google, które skanują treść na stronach, w tym m.in. słowa kluczowe, filmy, obrazy (a dokładniej ich opisy), a także linkowanie.

Infografika

Infografika - to przekazywanie informacji w formie grafiki. Przydaje się w przypadku nadmiaru treści, ułatwiając jej zrozumienie. Infografika wykorzystuje tabele, wykresy, diagramy, obrazki i rysunki, wypunktowania, kolory i różne fonty. Ma zaciekawić odbiorcę i zwiększyć ilość wyświetleń strony. Pogłębiając zaangażowanie internautów, generuje ruch i wpływa na pozycję strony w wyszukiwarce. Stanowi dodatek do tekstu. Powinna być powiązana z frazą kluczową i jak najbardziej przejrzysta.

Internal Duplicate Content

Internal Duplicate Content, czyli wewnętrzna duplikacja treści to popularne zjawisko, które negatywnie wpływa na pozycję strony internetowej w wynikach wyszukiwania. Polega na powielaniu tej samej lub bardzo podobnej treści w ramach jednej witryny. Istnieje wiele przyczyn powstawania duplikacji – najczęściej wynika z funkcjonowania strony głównej serwisu pod różnymi adresami. Kopiowanie contentu jest niezgodne z wytycznymi wyszukiwarki i wiążą się z karami od Google.

Jakość strony

Jakość strony internetowej to jakość jej elementów i ich działania. Zazwyczaj w kontekście stron WWW ocenia się:

  • szybkość działania,
  • doświadczenie użytkownika (User Experience),
  • poprawność kodu HTML,
  • dostosowanie strony do urządzeń mobilnych,
  • ogólną zgodność z zasadami SEO.

Strony internetowe wysokiej jakości są dobrze oceniane przez użytkowników, ale także przez algorytmy wyszukiwarek, dzięki czemu znajdują się na wysokich pozycja w organicznych wynikach wyszukiwania.

JavaScript

Skryptowy język programowania. Umożliwia dodawanie na stronie internetowej skomplikowanych elementów interaktywnych (np. interaktywne mapy i animacje, grafiki 2D/3D, pokazy slajdów, video itd.).

KPI (Key Performance Indicators)

KPI (skrót od Key Performance Indicators) są to kluczowe wskaźniki efektywności, które służą do określenia opłacalności działań. Na ich podstawie można opracować wnioski i przygotować strategię. Nie istnieje jeden zestaw takich wskaźników, ponadto należy określić je indywidualnie. KPI obowiązuje kilka warunków – muszą być mierzalne, jasne, obiektywne i odnosić się do konkretnych celów, nie mogą się wzajemnie wykluczać.

Kanibalizacja słów kluczowych (Keyword Cannibalization)

Keyword Cannibalization, czyli kanibalizacja słów kluczowych to sytuacja, w której kilka podstron jednego serwisu – strony internetowej lub sklepu – jest zoptymalizowanych na określoną frazę. Skutkiem takiego działania jest wzajemne nakładanie się poszczególnych URL-i w wynikach organicznych. Zjawisko może doprowadzić do spadków pozycji strony w Google oraz obniżenia współczynnika konwersji. Wśród przyczyn kanibalizacji słów kluczowych wyróżnia się np. błędne linkowanie czy duplikację treści.

Kara algorytmiczna Google

Algorithmic Penalty, czyli algorytmiczna kara Google to rodzaj filtra nakładanego automatycznie na strony internetowe przez algorytmy wyszukiwarki. Kara algorytmiczna może zostać nałożona na witryny, które nie przestrzegają wskazówek dla webmasterów oraz wytycznych Google. Zmiana oceny serwisu powoduje drastyczny spadek ruchu lub pozycji w wynikach wyszukiwania na dane słowa kluczowe. Filtr algorytmiczny jest trudniejszy do wykrycia niż ręczny, ponieważ właściciel strony nie jest o karze informowany.

Kara ręczna Google

Rodzaj kary nakładanej przez Google na strony WWW, które stosują nieetyczne techniki pozycjonowania. Kara ręczna (inaczej filtr ręczny) nakładana jest przez tzw. ręcznych raterów Google. Kara ta może zostać nałożona wskutek niestosowania się do wskazówek dla webmasterów. Może obniżyć pozycję witryny w wynikach wyszukiwania.

Katalogowanie

Katalogowanie jest to proces polegający do dodawaniu informacji o witrynie do katalogów stron internetowych. Jego celem jest pozyskanie linków zwrotnych. Błędem jest umieszczanie witryny w wielu katalogach, w dodatku niskiej jakości. Należy wybierać jedynie wartościowe katalogi, jeśli zależy nam na dobrych wynikach.

Keyword (słowo kluczowe)

Keyword (słowo kluczowe), inaczej fraza kluczowa, która najlepiej określa tematykę treści na stronie internetowej. Słowa kluczowe są wyszukiwane przez użytkownika w celu odnalezienia konkretnych informacji. Strona publikująca tekst zawierający frazy kluczowe jest lepiej pozycjonowana w Google i częściej odwiedzana. Rodzaje keywords to m.i.n.:

  • brandowe (nazwa marki, strony)
  • ogólne, np. "spodnie dżinsowe",
  • szczegółowe, niszowe (long tail), zawierające kilka słów dokładnie opisujących potrzebę, np. "jakie naszywki do spodni są modne"
  • lokalne, np. "adwokat kraków",

Powinny być umieszczone w H1 — H6 i meta znacznikach.

Keyword Analysis (analiza słów kluczowych)

Proces, który polega na wyszukiwaniu i doborze słów, na które dana strona rankuje lub może rankować. Wykonując analizę słów kluczowych należy wziąć pod uwagę m.in. ich miesięczną liczbę wyszukiwań, trendy czy dane dotyczące konkurencji.

Keyword Density

Keyword Density, czyli nasycenie fraz kluczowych to wskaźnik określający procentową wartość zagęszczenia słów kluczowych do całkowitej zawartości występującej na danej stronie internetowej lub w konkretnym tekście. Ze względu na rozpoznawanie fraz synonimicznych oraz wyrażeń zależnych przez roboty indeksujące nie jest to już tak ważny czynnik rankingowy dla Google. Dodawanie zbyt wielu słów kluczowych nie należy do dobrych praktyk i może być uznane za spam.

Keyword Rank

Jest to pozycja strony internetowej w wynikach wyszukiwania na konkretne słowo kluczowe.

Keyword Research

Keyword Research to badanie i słów kluczowych. Celem jest przeanalizowanie zapytań wpisywanych przez użytkowników w wyszukiwarkach i dobór spośród nich takich fraz, które pozwolą zająć stronie internetowej wysokie pozycje w Google. Wybór odpowiednich wyrażeń pod SEO odbywa się poprzez dedykowane usługi Google lub zewnętrzne narzędzia. Keyword research stanowi podstawę skutecznej optymalizacji treści pod wyniki wyszukiwania.

Keyword Stuffing

Keyword Stuffing to technika polegająca na nadużywaniu słów kluczowych w celu podniesienia pozycji witryny w wynikach. Zachodzi wtedy, gdy słowa kluczowe nie są używane naturalnie w tekście, umieszcza się je natomiast w grupy lub w formie listy. Sposób ten nie jest zalecany przez specjalistów SEO i może skutkować nałożeniem kary. Zamiast na ilość należy postawić na jakość, czyli właściwy dobór słów.

Knowledge Graph

Knowledge Graph to funkcja wprowadzona przez Google, która odnajduje zależności między informacjami i umożliwia pokazywanie rezultatów wyszukiwania w konkretnym i poprawnym kontekście. Celem wprowadzenia takiej technologii była poprawa jakości wyników wyszukiwania oraz odpowiedni dobór najważniejszych treści.

Knowledge Panel (panel wiedzy)

Panel, który pojawia się w prawej górnej części przeglądarki internetowej (wyłącznie na komputerze). Zawiera informacje na temat rzeczy, osób i miejsc powiązanych z danym zapytaniem. Można tam także znaleźć linki do powiązanych tematycznie witryn lub wyszukań Google.

Kod odpowiedzi 200

Kod odpowiedzi HTTP oznaczający, że zapytanie wysłane do serwera się powiodło, wszystko działa poprawnie, a użytkownikowi wyświetlona została zawartość żądanego dokumentu. Zdarza się jednak, że w przypadku tego kodu pojawia się błąd. Jest to błąd http 200 OK, który objawia się m.in. wolnym działaniem systemu. Potencjalną przyczyną jego wystąpienia może być złośliwe oprogramowanie bądź wirus.

Kod odpowiedzi 202

Kod odpowiedzi 202 – powszechnie znany pod nazwą „Accepted”, jest opisywany jako zaakceptowane żądanie klienta przeglądarki, które nie zostało jeszcze przetworzone. Podobnie jak inne komunikaty z przedziału 200-299 oznacza poprawne działanie strony internetowej. Wyświetlenie kodu odpowiedzi 202 informuje użytkownika, że jego zapytanie przyjęto do obsłużenia, ale realizacja jeszcze się nie zakończyła. W przypadku problemów należy załadować witrynę ponownie.

Kod odpowiedzi 403 (błąd 403)

To niepożądany kod – błąd związany bezpośrednio ze stroną internetową. Kod odpowiedzi 403 pojawia się wtedy, gdy chcemy wejść na stronę, ale nie mamy do niej dostępu. Otrzymamy wówczas komunikat o błędzie 403, ponadto możemy spotkać się z określeniami takimi jak: „Error 403 – Forbidden” lub „Dostęp zabroniony”. Przyczyn odmowy może być wiele, np. nieprawidłowo skonfigurowany serwer, ale także sytuacja, gdy dostęp możliwy jest tylko dla zalogowanych użytkowników albo wyłącznie dla administratora. Naprawienie kodu odpowiedzi 403 jest ważne dla SEO, ponieważ występowanie błędu blokuje dostęp robotom wyszukiwarki.

Kod odpowiedzi 404 (błąd 404)

To niepożądany kod – błąd związany bezpośrednio ze stroną internetową. Kod odpowiedzi 404to jeden z najczęstszych błędów pojawiających się podczas przeglądania sieci. Informuje o wywołaniu nieistniejącej lokalizacji lub pliku. W tym przypadku połączenie z serwerem jest poprawne, jednak nie można odnaleźć potrzebnej zawartości – Page not found, czyli „Nie znaleziono strony”.

Kod odpowiedzi 503

To niepożądany kod – błąd związany z odpowiedzią serwera. Kod odpowiedzi 503 pojawia się w momencie, gdy serwer nie jest w stanie obsłużyć żądania, najczęściej z powodu przeciążenia. Czasem znika po odświeżeniu strony, ale jeśli nie ustaje, najprawdopodobniej strona przekroczyła ustawiony przez firmę hostingową limit obciążenia.

Kod źródłowy strony WWW

Kod źródłowy to język umożliwiający tworzenie programów i stron internetowych. Posługują się nim programiści. Zawiera liczne informacje na temat strony WWW, np. znaczniki czy meta dane. Wiele błędów SEO wykrywa się i naprawia właśnie na poziomie kodu źródłowego dane witryny.

Błędy w kodzie źródłowym mogą mieć wpływ na pozycję strony w wynikach wyszukiwania. Dlatego poprawność kodu można uznać za jeden z czynników rankingowych.

Koliber

Algorytm, który wprowadził Google do wyszukiwarki w 2013 roku, po to, by lepiej rozumieć hasła wpisywane przez internautów. Dzięki algorytmowi Google dokładniej rozpoznaje semantykę słów kluczowych i potrafi skuteczniej dopasować wyniki do konkretnego zapytania.

Komentarz SPAM

Komentarze SPAM to komentarze zawierające niechciane przez innych internautów treści, które często odbiegają od omawianego tematu lub mają charakter promocyjny. Większość komentarzy SPAM dodawanych jest przez wcześniej skonfigurowane boty, których celem może być np. uzyskanie jak największej ilości kliknięć w przeważnie bezwartościowe linki.

Konwersja (Conversion)

Konwersja jest realizacją konkretnego działania przez użytkownika w odpowiedzi na skierowaną do niego kampanię czy działania SEO. Zachodzi, gdy bierny odbiorca zamienia się w aktywnego. Odpowiednio dobrana i właściwie wdrożona przynosi wymierny zysk w postaci np. dokonania zakupu, subskrypcji newslettera, założenia konta, wypełnienia formularza, kontaktu czy kliknięcia w baner. Współczynnik konwersji to odsetek internautów odwiedzających stronę, którzy zrealizowali wyznaczony cel.

LCP (Largest Contentful Paint)

Jeden ze wskaźników Core Web Vitals. Określa on, jak szybko ładuje się największy element strony, który zostanie zaprezentowany użytkownikom – zazwyczaj jest to element graficzny. Za dobry wynik uznaje się 2,5 sekundy oraz mniej. Zbyt wysoki wskaźnik LCP oznacza, że internauci mogą dłużej czekać na załadowanie zdjęć czy filmów.

Landing Page

Landing Page to strona internetowa, na którą trafiają użytkownicy z mailingu, linków reklamowych lub innej lokalizacji w sieci.

Strona typu Landing Page zachęca do podjęcia działania, np. proponuje zapisanie się do newslettera lub zakup produktu/usługi. Aby nie stwarzać możliwości wyboru, zazwyczaj strona LP skłania użytkownika do podjęcia tylko jednej akcji, np. wypełnienia formularza. Powinna wyróżniać się m.in. przejrzystą hierarchią elementów.

Lead

Lead - pierwszy, wprowadzający w artykuł akapit tekstu. Nawiązuje do dalszej treści. Powinien być krótki, napisany prostym językiem i zachęcać do dalszego czytania. Może być streszczeniem artykułu, ale nie może zdradzać wszystkiego. Ważne, by zawierał słowa kluczowe. Są różne rodzaju leadów, np. informacyjny, anegdotyczny, dramatyczny (wzbudzający napięcie), w formie pytania, cytatu lub historyjki.

Lead Magnet

Lead magnet oznacza przedmiot lub usługę, którą potencjalny klient może otrzymać za darmo w zamian za pozostawienie danych kontaktowych, np. adresu e-mail lub telefonu. Lead magnetem może być np. e-book, bezpłatna konsultacja czy rabat. W ten sposób generuje się leady sprzedażowe. Odbiorca po otrzymaniu darmowego „prezentu” dostaje na swoją skrzynkę oferty reklamowe lub bezpośrednio kontaktuje się z nim pracownik działu sprzedaży. W ten sposób łatwiej i trafniej dotrzeć do klientów znajdujących się na początkowym etapie lejka zakupowego.

Link Equity (Link Juice)

Proces przekazywania jednej stronie przez drugą wartości bądź autorytetu. Odbywa się to poprzez wymianę linków – zarówno linki zewnętrzne, jak i wewnętrzne.

Linki bezpośrednie

Linki bezpośrednie to takie rodzaje odnośników, które przenoszą użytkownika od razu na konkretną, docelową stronę internetową. Oznacza to, że w przypadku tak zwanych direct links nie jest używane przekierowywanie 301 lub 302. Stanowią podstawę budowania wartościowego profilu linków. Jednak mogą wpływać na pozycję witryny w wynikach wyszukiwania, tylko jeśli nie zawierają atrybutu nofollow. Nazywane są również linkami SEO, ponieważ pozyskuje się je w celu pozycjonowania serwisu w wyszukiwarkach.

Linki pośrednie

Linki pośrednie to odnośniki, które kierują użytkownika do innej strony za pomocą przekierowań – 301 lub 302. W ten sposób naprowadza się użytkownika oraz roboty do określonej witryny przez własną domeną.

Linkowanie wewnętrzne

Linkowanie wewnętrzne — to strategia SEO, polegająca na umieszczaniu linków w witrynie, które prowadzą do innych jej stron. Pomaga to robotom w lepszym zaindeksowaniu domeny (oceniają powiązania między podstronami). Obniża ryzyko odrzuceń, a zwiększa czas trwania sesji — użytkownikom łatwiej jest się poruszać po stronie. Rodzaje internal linking to: menu główne, breadcrumbs (menu okruszkowe), mapa strony, linkowanie z bloga i ogłoszeń produktowych.

Long Tail (długi ogon)

Long tail (długi ogon) to rzadko wyszukiwana fraza kluczowa, składająca się z minimum 3 słów. Charakteryzuje się niską konkurencyjnością w wyszukiwarce (mała liczba zapytań), wysokim współczynnikiem konwersji, szybkim zwrotem inwestycji i dłuższym czasem sesji na stronie. Wpływa na stabilność pozycji strony w Google. Posługują się nią użytkownicy, którzy poznali swoje potrzeby, są zdecydowani na zakup produktu, usługi, pobranie pliku.

M-dot Domain

M-dot Domain to witryna zaprojektowana specjalnie dla urządzeń mobilnych i znajdująca się w oddzielnej subdomenie. Witryna m-Dot ma własny adres URL.

Machine Learning (uczenie maszynowe)

Machine Learning, czyli uczenie maszynowe to samodoskonalący się system komputerowy, który działa w sposób niewymagający uprzedniego programowania wyjaśniającego. Oznacza to, że maszyna posiada umiejętność zdobywania informacji i uczenia się. To zaś umożliwia jej zapoznać się z konkretnym zagadnieniem, wyciągnąć na postawie danych wnioski i udzielić na zapytanie jak najszybszej odpowiedzi. Uczenie maszynowe wpływa na działanie wyszukiwarek internetowych oraz SERP-ów.

Mapa strony (Sitemap)

Mapa strony (Sitemap) to plik zwykle w formacie XML, który zawiera listę wszystkich aktywnych adresów URL strony internetowej wraz z datą aktualizacji poszczególnych podstron. W mapie witryny powinny znaleźć się wszystkie wartościowe linki, które chcemy aby wyświetlały się w wyszukiwarkach. Narzędzie pomaga robotom takim jak Googlebot sprawnie i szybko indeksować serwis. Poza adresami URL można dodać do sitemapy również inne przydatne informacje, czyli tzw. metadane.

Meta Description

Meta Description — akapit opisu w kodzie HTML strony (SERP), pisany dla wyszukiwarki. Wyświetla się w wynikach wyszukiwania i informuje o zawartości strony, do której się odnosi. Znajduje się pod meta title. Powinien być unikalny i zawierać jedną lub dwie frazy kluczowe. Służy zachęceniu użytkownika do odwiedzenia witryny, a więc zwiększeniu ilości wyświetleń. Nie wpływa bezpośrednio na pozycję strony w wyszukiwarce. Może być zastąpiony fragmentem treści strony, jeżeli nie jest dopasowany do zapytania w Google. Ma długość od 150 do 160 znaków.

Meta Keywords

Meta Keywords to słowa kluczowe opisujące witrynę. Wpisuje się je w kodzie HTML, nie są więc widoczne dla użytkownika. Nie mają znaczenia dla SEO.

Meta Tagi

Meta Tagi to znaczniki umieszczane w kodzie HTML nagłówka strony. Mają duże znaczenie dla SEO i pozycjonowania witryny w wyszukiwarce. Składają się z meta keywords, meta robots oraz meta title i meta description, które są odczytywane przez roboty Google w celu indeksowania treści. W tych ostatnich powinny być zawarte słowa kluczowe i CTA (call-to-action).

Meta Title

Meta Title to składnik meta tagów. Nazywany także page title lub tag title. Określa, co będzie się wyświetlać w wyszukiwarce i na karcie zakładek. Powinien zaczynać się od odpowiednio dobranej frazy kluczowej, określającej potrzebę odbiorcy, z którą zwraca się on do Google. Musi być atrakcyjny oraz informować użytkownika, co znajdzie pod wyświetlonym adresem. Nie może być powtórzeniem tytułu redakcyjnego treści.

Mikrodane (mikroformaty)

Mikrodane, nazywane również mikroformatami, są to dane strukturalne, które pozwalają algorytmom wyszukiwarek lepiej zrozumieć zawartość indeksowanej strony WWW. Służą do oznaczania typów publikowanych treści.

Mikrodane wprowadzane są przy pomocy specjalnych znaczników w kodzie strony internetowej (HTML).

Mobile First Index

Indeks stworzony przez Google, zgodnie z którym ustalany jest ranking stron w wynikach wyszukiwania na podstawie ich mobilnej wersji. Wyższą pozycję zdobywają więc witryny, które są dobrze przystosowane do urządzeń mobilnych.

Mobile Friendly Website

Mobile Friendly Website, czyli w dosłownym tłumaczeniu strona przyjazna mobilnie. Określenie odnosi się do witryn, które są dostosowane do potrzeb użytkowników telefonów i smartfonów. Tego typu serwis odpowiednio wyświetla się na każdym ekranie, szybko się ładuje, jest nastawiony na scrollowanie i ma mniejszą liczbę elementów. Strony mobile friendly są ponadto promowane przez Google w wynikach wyszukiwania i pozwalają dotrzeć do większej liczby odbiorców ze względu na dobry UX.

Mobile SEO

Mobile SEO, czyli inaczej optymalizacja strony mobilnej, jest to proces, którego celem jest poprawa takich elementów jak wygląd strony, nawigacja czy prędkość ładowania, by były one przystosowane do wersji mobilnej lub responsywnej.

MozRank

MozRank to narzędzie służące do mierzenia ilości i jakości linków kierujących do danej witryny. Nazwa MozRank pochodzi od nazwy firmy – Moz, która opracowała te wskaźniki. Wyniki pomiaru podawane są w skali od 1 do 10.

Aby sprawdzić MozRank swojej strony internetowej, najlepiej skorzystać z pakietu Open Site Explorer.

NAP (Name, Address, Phone Number)

Wirtualna wizytówka firmy, która zawiera najważniejsze informacje o przedsiębiorstwie, w tym ważne dane kontaktowe, ale nie tylko. Wpływa na zwiększenie widoczności firmy w sieci i ułatwia dotarcie do nowych klientów.

Nawigacja strony (Website navigation)

Website Navigation to sposób w jaki dana strona internetowa łączy ze sobą podstrony, w celu ułatwienia nawigacji w obrębie danej witryny. Celem takiego zabiegu jest stworzenie struktury linków, dzięki której przemieszczanie się na danej stronie WWW jest intuicyjne i proste zarówno dla internautów, jak i robotów Google, które ‘’skanują’’ stronę.

Nisza

Nisza to zwykle mały i niewykorzystany jeszcze obszar rynku. Obejmuje on niewielką grupę odbiorców, której potrzeby nie zostały dotychczas całkowicie spełnione danym produktem (jego funkcjonalnością) lub usługą. Może dotyczyć konkretnego terytorium, grupy docelowej i towarów. Znalezienie niszy gwarantuje generowanie zysków bez konieczności walki konkurencyjnej. W biznesie online niszę można odszukać dzięki analizie SEO (m.in. poprzez audyt słów kluczowych).

Nofollow

Nofollow (rel nofollow) to atrybut oznaczany w kodzie HTML strony. Nadaje się go linkom wewnętrznym i zewnętrznym. Jest informacją dla robotów Google, by nie podążały za danym linkiem. W ten sposób witryna nie przekazuje swojej mocy docelowym stronom lub podstronom. Nie ma wpływu na pozycjonowanie w wyszukiwarce. Pozwala na budowanie zróżnicowanego profilu linków.

Noindex

Noindex to wartość, która informuje roboty wyszukiwarek, żeby nie indeksowały danego adresu. Jednakże warto pamiętać, że noindex zawarty w meta tagu robots nie zapobiega skanowaniu strony, a jedynie sprawia, że nie jest ona indeksowana przez boty Google.

“(not provided)”

‘’Not provided’’ jest informacją pojawiającą się w raportach, które zawierały do tej pory informacje na temat tego, jakich słów kluczowych używali internauci do wyszukania danej witryny. Wynika to z usunięcia przez Google danych o słowach kluczowych z Google Analytics w 2012 roku. Celem takiego rozwiązania była ochrona prywatności użytkowników.

Off-site SEO

Off-site SEO jest elementem pozycjonowania. Są to działania prowadzone na zewnątrz domeny internetowej. Należą do nich m.in. pozyskiwanie linków czy tworzenie wpisów gościnnych z linkiem.

On-site SEO

One-site SEO to wszystkie działania związane z pozycjonowaniem wykonywane w obrębie strony internetowej.

Do działań SEO on-site zalicza się m.in.:

  • używanie słów kluczowych w publikowanych treściach,
  • tworzenie atrakcyjnych artykułów, które wyczerpują poruszany temat,
  • przystosowanie strony do urządzeń mobilnych,
  • dbałość o szybkie działanie strony,
  • dbałość o dobre doświadczenia użytkownika (User Experience).

Optymalizacja

Optymalizacja to działania na stronie (on-page) i w jej obrębie, mające na celu zwiększenie widoczności strony w organicznych wynikach wyszukiwania na dane frazy kluczowe. W tym celu dokonuje się usprawnień technicznych i merytorycznych (treści na stronie). Optymalizacja jest elementem pozycjonowania (SEO).

Organic Search Results (organiczne wyniki wyszukiwania)

Organic Search Results (organiczne wyniki wyszukiwania) to bezpłatne wyniki w przeglądarce w formie linków do stron internetowych. Źródłem dostępu do nich są: wyszukiwarka, media społecznościowe, adres w pasku przeglądarki wpisany samodzielnie lub strony internetowe. W Google pojawiają się po reklamowanych rezultatach wyszukiwania. Nie są opłacane w żaden sposób. Ich obecność i wysoka pozycja w wyszukiwarce to efekt działań SEO (w zgodzie z algorytmami Google).

Orphaned Page (osierocona strona)

Orphaned Page, czyli osierocona strona, to witryna, do której nie prowadzą żadne odnośniki (linki). Znacznie utrudnia to dostęp do niej, ponieważ użytkownik nie może trafić na tę stronę bez znajomości dokładnego adresu URL.

Co więcej, osierocone strony są rzadko indeksowane przez roboty wyszukiwarek, przez co nie można odnaleźć ich także w wynikach wyszukiwania.

PBN (Prywatna Sieć Blogów)

PBN to skrót od Prywatnej Sieci Blogów, czyli jednej z technik skutecznego pozycjonowania. Prywatna Sieć Blogów to kolekcja domen o wysokim wskaźniku authority, które kupowane są na potrzeby pozycjonowania witryny. Na takich stronach zawiera się linki odsyłające do pozycjonowanej strony internetowej.

PHP

PHP, czyli Hypertext Preprocessor, to jeden z języków programowania, który służy do generowania kodu stron internetowych oraz budowania aplikacji webowych w czasie rzeczywistym. PHP może odbywać się za pomocą skryptu programowania, które ma wiele zastosowań. Główną zaletą PHP jest jego prostota (pomimo dostępu do wielu zaawansowanych możliwości)

PPC (Pay Per Click)

PPC (Pay Per Click) to model reklamy w internecie. Zleceniodawca płaci za nią tylko, kiedy ktoś kliknie w jego baner lub link sponsorowany. Często wykorzystywaną formą reklamy PPC jest Google AdWords. Reklamy w Google pojawiają się przed i po wynikach organicznych (bezpłatnych). Dzięki widoczności więcej osób może wejść na reklamowaną stronę i skorzystać z usług marki lub kupić jej produkt. W każdej chwili można zmieniać frazy kluczowe, na które będzie wyświetlany link sponsorowany.

Page Authority

Page Authority to wskaźnik opracowany przez MOZ, który określa autorytet pojedynczej strony internetowej. Celem parametru jest określenie konkurencyjności konkretnego adresu URL, a nie całej witryny w wynikach wyszukiwania. PA oblicza się na podstawie wielu czynników np. ilość i jakości linków prowadzących do serwisu. Podobnie jak w przypadku autorytetu domeny wynik podawany jest w skali logarytmicznej od 1 do 100. To świetny sposób porównywania konkurencyjnych witryn.

Page Speed (szybkość strony)

Page Speed, czyli z języka angielskiego szybkość strony to wskaźnik określający całkowity czas ładowania się witryny WWW, który można sprawdzić w darmowych narzędziach. Stanowi jeden z najważniejszych czynników rankingowych wyszukiwarki Google, ponieważ w znacznym stopniu wpływa na doświadczenia użytkownika w kontakcie z serwisem. Im dłużej ładuje się strona, tym wyższy wskaźnik odrzuceń. Na Page Speed mogą mieć wpływ źle zoptymalizowane grafiki, powolny hosting czy zbyt duża liczba wtyczek.

PageRank

Wzór na obliczenie jakości strony internetowej wykorzystywany przez Google. Opiera się na analizie liczby linków przychodzących i ich źródeł pozyskiwania. PageRank dla poszczególnych stron nie jest już dostępny publicznie.

Pageview

Pageview to liczba odwiedzin danej strony internetowej, na którą składają się wszystkie wyświetlenia i odświeżenia witryny. Z perspektywy technicznej pageview to żądanie wczytania dokumentu HTML.

Panda

Panda to jeden z kluczowych algorytmów Google. Został wprowadzony w 2011 roku w celu ograniczenia zasięgów niskiej jakości stron internetowych w wynikach wyszukiwania. Zmniejszona widoczność obejmuje witryny publikujące treści krótkie, duplikowane oraz niewyczerpujące tematu. Faworyzuje małe i średnie serwisy z wartościową zawartością, na których znajdziemy artykuły specjalistyczne oraz pomocne i angażujące użytkowników. Roboty wyszukiwarki biorą pod uwagę np. autorytet autora i długość materiału.

Parametr adresu URL

Parametr adresu URL, inaczej zapytanie, to część informująca o kliknięciu. Składa się z nazwy parametru, jego wartości, oddzielonych znakiem równości (=) i połączonych znakiem &. Poprzedzony jest pytajnikiem (?). Za jego pomocą można śledzić przebieg kliknięć na stronie.

Partial Match Domain

Partial Match Domain (częściowe dopasowanie domeny) to proces wyboru nazwy głównej domeny zgodnej z Twoją działalnością: produktem lub usługą. Jest to technika, która może pomóc w szybkim uzyskaniu przyzwoitej pozycji w wynikach wyszukiwania Google.

People Also Ask

Najczęściej wyszukiwane przez użytkowników frazy, podobne do tej, którą wpisaliśmy w wyszukiwarkę. Frazy te są sugerowane przez Google i wyświetlają się najczęściej pomiędzy wynikami.

Personalizacja

Personalizacja to w kontekście SEO termin określający dopasowanie wyników wyszukiwania do konkretnego użytkownika na podstawie jego aktywności w sieci. Możliwa jest dzięki informacjom, jakie Google zbiera na temat internautów. Są to np. lokalizacja, adres IP, odwiedzane strony WWW, historia wyszukiwanych fraz czy kontakty w skrzynce e-mail. Personalizacja wyników jest różna dla zalogowanych i niezalogowanych użytkowników. Celem jest dobór spersonalizowanych treści.

Pillar Page

Pillar Page — strategia organizacji treści na stronie w ramach Content Marketingu. To strona główna, która ułatwia nawigację użytkownikowi. Polega na tworzeniu dużej liczby wartościowego contentu w danym temacie i zawierającego odnośniki do treści rozwijających ten temat (topic clusters). Na Pillar Page musi być obecne CTA. To taktyka zwiększająca widoczność witryny w wyszukiwarce i umożliwiająca stworzenie lepszej mapy strony.

Pingwin

Pingwin to jeden z kluczowych algorytmów Google. Wszedł w życie w 2012 roku, a jego głównym zadaniem jest obniżanie pozycji stron internetowych w wynikach wyszukiwania, które nie przestrzegają zasad obowiązujących webmasterów np. poprzez Black Hat SEO. Karane są przede wszystkim serwisy z linkami o niskiej jakości oraz działaniami uznawanymi za spam. Pingwin w 2016 roku stał się częścią głównego algorytmu Google, co oznacza, że na bieżąco ocenia i indeksuje strony pod kątem spamerskich linków.

Piractwo

Celem wyszukiwarek internetowych jest obniżanie rankingu bezpłatnych wyników wyszukiwania treści naruszających prawa autorskie. W tym celu Google wprowadziło w 2012 roku filtr, który zmniejsza widoczność witryn zgłoszonych wielokrotnie w związku z żądaniami o usunięcie treści.

Poison Words

Poison Words to słowa, które mogą obniżyć wartość strony dla wyszukiwarek, które klasyfikują je jako witryny o niskiej jakości. Choć nie istnieje dokładna lista, to są to wyrażenia, które wywołują nieufność. Przykładem Poison Words mogą być terminy związane z hazardem, określenia niepoprawne politycznie, wulgarny język czy wyrażenia typu „kup link zwrotny”. Wykorzystywanie takich słów może wpłynąć na pozycję strony w Google, szczególnie gdy są użyte w adresie URL, tytułach czy w opisie serwisu.

Presell Pages

Presell Pages, nazywane również preclami, to strony przedsprzedażowe, na których znajdują się linki do stron typu Landing Page. W wielu przypadkach strona przedsprzedażowa jest pośrednikiem pomiędzy reklamą produktu lub usługi a koszykiem zakupowym online.

Często myli się Presell Pages z Landing Page. Warto pamiętać, że PP zawsze jest LP, lecz LP nie zawsze jest PP.

Przekierowanie (301, 302)

Przekierowanie (301, 302) wysyła użytkowników i roboty wyszukiwarki do nowej strony ze starej, która obecnie nie funkcjonuje. Dokonuje się go w protokole HTTP. Dzięki przekierowaniu 301 możliwe jest przeniesienie na stałe strony na inny adres bez tracenia pozycji strony w wyszukiwarce. Przekierowanie 302 jest tymczasowe, np. gdy trwa modernizacja strony. Nie dochodzi w nim do przeniesienia wartości SEO ze starego adresu na nowy. Przekierowanie pomaga uniknąć błędu 404, oznaczającego brak strony.

QDF (Query Deserves Freshness)

Algorytm rankingowy Google, który skupia się na dostarczaniu najświeższych informacji dotyczących bieżących wydarzeń. Obejmuje gorące tematy, wiadomości, wydarzenia polityczne, gospodarcze i wszelkie informacje, które są stale aktualizowane. Algorytm ten działa na podstawie liczby wyszukiwań dla danych tematów.

Quality Content

Quality Content to profesjonalna oraz unikalna treść publikowana na stronach internetowych, która jest wartościowa dla odbiorców i zwraca uwagę potencjalnych klientów. Stanowi dzieło dobrego copywritingu. Odpowiada na pytania, rozwiązuje problemy i zaspokaja ciekawość czytelnika. Materiały powinny być napisane zgodnie z wytycznymi SEO i poprzedzone solidnym researchem. O jakości contentu świadczy np. czas spędzony przez użytkownika w serwisie czy liczba interakcji oraz komentarzy.

Query Deserves Diversity

Query Deserves Diversity to rankingowy algorytm Google, którego podstawowym celem jest wyświetlanie odpowiednich wyników wyszukiwania odnoszących się do konkretnych zapytań, ale w szerszym spektrum.

Mówiąc inaczej, QDD próbuje dopasować intencje użytkownika, proponując szersze rezultaty wyszukiwania. Google monitoruje zachowanie wyszukujących i rejestruje wzorce wyszukiwania, w których użytkownik nie znalazł odpowiednich wyników.

ROI (Return on Investment, zwrot z inwestycji)

ROI, czyli Return on Investment to z języka angielskiego zwrot z inwestycji. W ten sposób określa się wskaźnik, który pozwala ocenić efektywność podejmowanych działań marketingowych. Miernik można wykorzystać podczas pozycjonowania stron internetowych czy realizacji kampanii reklamowych w wyszukiwarkach. Wynik ROI wyrażany jest w procentach i stanowi stosunek zysku do poniesionych kosztów. Aby go policzyć, należy posłużyć się wzorem: ROI = (przychód - koszt sprzedaży) / koszt sprzedaży x 100%.

Ramki

Ramki (iFrames) to część kodu HTML strony, wyświetlający fragment dokumentu i nie ingerujący w treść na stronie. Ładuje się wolniej od strony, na której jest umieszczony. Można go użyć, by osadzić film z YouTube, mapę Google czy inny content na stronie. Nie wpływa na pozycjonowanie. Zaleca się więc unikanie go na stronie, która ma być pozycjonowana.

Rank Brain

Rank Brain to, działający od 2015 roku, algorytm Google, który został oparty na uczeniu maszynowym (AI – sztucznej inteligencji). Jego głównym zadaniem jest wyświetlanie jak najtrafniejszych wyników dla wpisanej w wyszukiwarkę frazy.

Każde zapytanie przechodzi przez proces interpretacji, który do ustalenia intencji wyszukującego wykorzystuje dodatkowe czynniki, takie jak m.in. lokalizacja czy personalizacja.

Referrer (adres odsyłający)

Referrer, czyli adres odsyłający to adres strony internetowej, z której nastąpiło przekierowanie użytkownika do strony docelowej za pomocą odnośnika. Sama nazwa pochodzi od angielskiego słowa refer, czyli odsyłać. Tego rodzaju link jest wysyłany przez przeglądarkę do serwera WWW w nagłówku żądania HTTP. Odnośniki referujące wykorzystuje się w pozycjonowaniu oraz w różnego rodzaju systemach partnerskich. Dzięki nim można dokonać analizy stron źródłowych, z których internauci trafiają do serwisu.

Relative URL

Relative URL wskazuje lokalizację (ścieżkę) pliku na stronie. Nie zawiera domeny, w odróżnieniu od Absolute URL. Umożliwia szybsze ładowanie strony, co przekłada się na zadowolenie internautów, dłuższe sesje, a to z kolei na lepszą pozycję w wyszukiwarce. Relative URL przynależy do tej samej domeny na serwerze.

Relevance (trafność)

Sposób, w jaki wyszukiwarka mierzy powiązanie treści na danej stronie internetowej z zapytaniem użytkownika. Google skanuje zawartość danej strony internetowej i określa w jakim stopniu zawarte na niej treści odpowiadają na pytanie odbiorcy.

Robots Meta Tag

Robots Meta Tag to znacznik, które zawiera wytyczne dla odwiedzających stronę internetową robotów sieciowych. Ten fragment kodu HTML związany jest z indeksowaniem witryn w wyszukiwarce oraz znajdujących się na niej odnośników. Oznacza to, że celem Robots Meta Tag jest poinformowanie Google, które podstrony mają nie pojawiać się w wynikach wyszukiwania. Przy pomocy znacznika można zastosować różne wartości (np. nofollow, noindex) oraz pozostawić instrukcje dla konkretnych robotów.

Robots.txt

Plik, który jest umieszczany w katalogu głównym na serwerze strony WWW. Przekazuje on robotom informacje, do których zasobów danej witryny mogą mieć dostęp, a do których nie powinny. Plik daje wiele możliwości – można zablokować dostęp do konkretnych adresów czy plików. Kluczowe jest jednak sprawdzenie, czy nie zawiera on żadnych błędów. Zablokowanie całej strony lub jej części w pliku robots.txt może spowodować obniżenie potencjału strony bądź nawet całkowite pozbawienie jej widoczności w Google.

Ruch organiczny (Organic Traffic)

Organic traffic, czyli ruch organiczny, to określenie dotyczące wszystkich użytkowników, którzy wchodzą na stronę internetową za pośrednictwem bezpłatnych wyników wyszukiwania. Te zaś różnią się od płatnych reklam tym, że znajdują się nieco niżej na liście SERP, a przed adresem witryny i nie posiadają znacznika „reklama”. Największy ruch organiczny pozyskują serwisy z pierwszej strony wyszukiwarki. Znalazły się tam ze względu na takie czynniki jak np. siła domeny, profil linkowy czy treści.

SEM (Search Engine Marketing)

SEM (Search Engine Marketing) to wszelkie działania marketingu cyfrowego prowadzone w wyszukiwarkach internetowych. Ich głównym celem jest uzyskanie jak najlepszej pozycji serwisu na określone słowa kluczowe zarówno w bezpłatnych, jak i płatnych wynikach wyszukiwania. Promocja witryny poprzez kampanie SEM ma mierzalny, skuteczny i wymagający niewielkich nakładów finansowych charakter. Marketing w wyszukiwarkach składa się z dwóch elementów: SEO (pozycjonowania) oraz PPC (płatnych kliknięć w link).

SEO (Search Engine Optimisation)

SEO (Search Engine Optimisation), inaczej określane pozycjonowaniem, to działania mające na celu dostosowanie strony internetowej do wymagań wyszukiwarki i uzyskanie ruchu organicznego w wynikach wyszukiwania na dane słowa kluczowe i zapytania. Ruch zaś przekłada się na popularność marki i większą konwersję. Rozwiązania dotyczą różnych elementów strony: kodu, treści, linkowania i mają ułatwiać robotom wyszukiwarki indeksację domeny w odpowiedzi na potrzeby użytkownika. Pozycjonowanie obejmuje czynności w obrębie strony (on-site) i poza nią (off-site), czyli: optymalizację, content marketing, link building i analitykę internetową. Im wyższa pozycja portalu w wyszukiwarce, tym więcej odwiedzin.

SEO lokalne

Local SEO (lokalne SEO) to pozycjonowanie strony na konkretny region, np. na frazę: restauracja węgierska w Krakowie. W tym celu używa się słów kluczowych związanych obszarem, na którym funkcjonuje firma. Strategia SEO lokalnego zakłada szereg działań — od utworzenia wizytówki w Google Moja Firma, przez umieszczenie danych kontaktowych na stronie, po budowanie zaufania poprzez kierujące do niej regionalne linki zewnętrzne. Internautom ułatwia znalezienie takiej firmy.

SERP (Search Engine Ranking Page)

Strona, która przedstawia wyniki wyszukiwania dla konkretnego słowa kluczowego, które użytkownik wpisał w wyszukiwarkę. Im wyżej wyświetla się dana strona w rankingu, tym jest bardziej wartościowa dla algorytmów Google i lepiej pasuje do wpisanego zapytania.

SPAM

SPAM to niechciane treści przesyłane przez Internet. Wysyłane są jednocześnie do dużej grupy odbiorców, którzy nie wyrazili na to zgody. Najczęściej SPAM trafia do skrzynek e-mailowych.

Nazwa SPAM pochodzi o angielskiej mielonki wieprzowej: Shoulder Prok and Ham. Istnieje również inny skrót, który dobrze oddaje charakter SPAM-u: Stupid Pointless Annoying Messages, czyli "głupie, bezsensowne i denerwujące wiadomości".

SSL (Secure Socket Layer)

Protokół sieciowy, który jest używany do bezpiecznych połączeń internetowych i służy do szyfrowania danych przesyłanych pomiędzy przeglądarką a serwerem strony. Chroni więc takie informacje jak np. loginy, hasła, dane kontaktowe czy numery kart płatniczych. Witryna, która korzysta z szyfrowanego połączenia jest oznaczana w pasku adresu przeglądarki poprzez symbol zamkniętej kłódki oraz przedrostek HTTPS.

SWL (System Wymiany Linków)

System, który pozwala na automatyczną wymianę linków pomiędzy stronami. Dzięki niemu można w krótkim czasie pozyskać dużą ilość linków do danej strony internetowej. Korzystanie z takich systemów nie jest jednak rekomendowane. Google źle to odbiera i za takie praktyki może nawet obniżyć wartość strony w wyszukiwarce.

SXO (Search Experience Optimization)

SXO, czyli Search Experience Optimization to połączenie skrótowca SEO oraz UX. Ten zbiór technik określa się jako optymalizacja doświadczeń użytkownika. Obejmuje więc wszelkie działania, których celem jest poprawa sumy wrażeń internauty związanych z określoną stroną internetową w wynikach wyszukiwania. Stworzona zgodnie z założeniami SXO witryna powinna skutecznie przyciągnąć użytkownika wyszukiwarki i skłonić go do wykonania konwersji, czyli np. złożenia zamówienia czy wypełnienia formularza.

Schema.org

Schema.org jest portalem zawierającym informacje na temat tego, w jaki sposób konstruować dane strukturalne w oparciu o różne typy. Umożliwia rozszerzenie wyników wyszukiwania o dodatkowe informacje (np. godziny otwarcia albo oceny produktów) lub grafikę (np. logo firmy), czyli„rich snippets”.

Search Engine Advertising

Search Engine Advertising (skrót: SEA) to płatne reklamy w wyszukiwarce internetowej. Wyświetlają się w wyróżnionych miejscach po wpisaniu powiązanych z nimi haseł. Głównym celem SEA jest zwiększenie ruchu na stronie WWW i podniesienie konwersji.

Sponsorowane reklamy mogą pojawiać się lokalnie lub w ogólnokrajowych wynikach wyszukiwania. Opłata za SEA zależy m.in. od liczby kliknięć w reklamę.

SEA sprawdza się przed wszystkim dla stron mało znanych lub takich, które mają dużą konkurencję SEO.

Search Engine Reputation Management

Search Engine Reputation Management (skrót: SERM) to zarządzenie reputacją strony WWW w wyszukiwarce. Polega na tworzeniu pozytywnego wizerunku marki; utrzymaniu dobrej reputacji albo poprawieniu złej.

Strategia SERM stosowana jest głównie przez firmy, które chcą pracować na swoją dobrą reputację online. Opiera się m.in. na badaniu opinii klientów.

Odpowiednio prowadzone działania SERM pomagają stronie internetowej uzyskiwać lepsze wyniki w organicznych wynikach wyszukiwania (SERP).

Second-Level Domain (domena drugiego poziomu)

Człon nazwy domeny występujący zaraz po domenie najwyższego poziomu (TLD). Może być to np. nazwa instytucji/przedsiębiorstwa, dla której witryna jest rejestrowana. Przykładem domeny drugiego poziomu jest "biz.pl" ("biz" to domena drugiego poziomu dla domeny najwyższego poziomu "pl").

Serwer

Serwer to termin pochodzący od angielskiego słowa serve, czyli usługiwać. Oznacza urządzenia lub programy komputerowe, które pośredniczą w przekazywaniu danych pomiędzy komputerami i udostępniają zasoby innym użytkownikom. Umożliwiają funkcjonowanie innych usług zwanych klientami. Jest to więc dostępne 24 godziny na dobę miejsce, na którym można umieścić stronę internetową, stworzyć skrzynki pocztowe czy przechowywać pliki. Serwer działa bez przerwy i jest stałe podłączony do sieci.

Short Click

Short Click to krótki czas sesji, jaką użytkownik spędził na stronie internetowej. Świadczy o tym, że treści na stronie nie odpowiadają jego potrzebom, dlatego opuszcza ją. W celu wydłużenia sesji zaleca się tworzenie wartościowych i atrakcyjnych treści. Warto wzbogacić stronę o takie elementy, jak filmiki i zdjęcia.

Social Media (media społecznościowe)

Media społecznościowe to platformy wykorzystujące technologie internetowe i mobilne, które umożliwiają jej użytkownikom stałą komunikację oraz publikację i wymianę treści w postaci m.in. zdjęć lub filmów. Popularne obecnie media społecznościowe to m.in. Facebook, Instagram, Twitter.

Strona główna

Home Page to strona główna strony internetowej. Znajdują się na niej odnośniki do innych podstron. Ma ona na celu zakomunikowanie użytkownikom, czego dotyczą treści pod tym adresem, a także zachęcić do dalszego przeglądania.

Jeśli jest to strona firmy lub sklep internetowy, warto zawrzeć na stronie głównej informacje dotyczące oferty. Ważne, żeby odwiedzający z łatwością odnalazł interesujące go treści, np. kontakt, cennik czy menu.

Strona internetowa

Strona internetowa to dokument html z treściami i linkami udostępniony w Internecie. Uruchamiany za pomocą przeglądarki internetowej. Ma swój adres elektroniczny. Strona może być statyczna lub dynamiczna. Tworzona jest w różnych językach programistycznych. Zwykle posiada wtyczki, które wpływają na jej większą funkcjonalność i przejrzystość. Umożliwia prowadzenie własnej działalności w Internecie. Zwiększa widoczność marki w Internecie i służy pozyskiwaniu klientów.

Strona responsywna (Responsive Website)

Responsive Website (lub Responsive Web Design), czyli stron reponsywna, to strona internetowa przystosowana do różnych szerokości ekranu. Dzięki temu rozwiązaniu witryna wyświetla się poprawnie na komputerach stacjonarnych, laptopach oraz urządzeniach mobilnych, takich jak smartfon czy tablet.

Strony responsywne są wyżej oceniane przez roboty wyszukiwarki Google, przez co uzyskują lepsze pozycje w organicznych wynikach wyszukiwania.

Strona zaindeksowana (Indexed Page)

Strona zaindeksowana, to taka witryna internetowa, którą wykryły roboty indeksujące i dodały do indeksu wyszukiwarki. W praktyce oznacza to, że serwis wyświetla się w organicznych (bezpłatnych) wynikach wyszukiwania na konkretne frazy kluczowe. Jest więc widoczny i dostępny dla społeczności. Aby sprawdzić, czy strona wyświetla się w Google, należy skorzystać z komendy „site:adrestwojejstrony.pl”.

Struktura witryny

Struktura witryny to sposób, w jaki zorganizowana jest treść na stronach internetowych. Powinna być ona łatwa w nawigacji dla użytkownika oraz robotów wyszukiwarki. Składa się z kategorii, podstron i podkategorii. Podstrony muszą się w jasny sposób łączyć z kategoriami. Jeśli struktura jest dobrze zaprojektowana, użytkownik łatwo znajduje potrzebne informacje (maksymalnie 3 kliknięcia)i jest bardziej zadowolony z używania witryny. Im lepsza struktura, tym też lepsza indeksacja botów Google.

Subdomena

Subdomena to adres internetowy stworzony w ramach istniejącej już domeny głównej. Nazwa subdomeny wpisywana jest po lewej stronie od adresu głównego. Dodatkowo oddziela się ją kropką.

Na przykład dla strony głównej www.wenet.pl subdomeną, na której znajduje się blog, będzie www.blog.wenet.pl.

Taksonomia

Taksonomia, to taki sposób organizacji i kategoryzacji strony internetowej, który znacząco ułatwia internautom poszukiwanie konkretnych treści i wykonywanie pożądanych działań w witrynie. Prawidłowa i logiczna struktura sprawia, że zawartość jest również dużo bardziej czytelna dla robotów wyszukiwarek, które analizują i indeksują serwis. Dlatego też odpowiednia taksonomia wpływa zarówno na doświadczenie użytkownika na stronie (UX), jak i na pozycję w rankingu Google.

Time on Page

Time on Page to po prostu czas spędzony na stronie internetowej. Liczony jest od momentu, w którym użytkownik załaduje stronę do chwili, gdy zdecyduje się przejść do następnej lub wyłączyć przeglądarkę.

Średnią ilość czasu spędzonego przez użytkowników na przeglądaniu określonej strony WWW możesz sprawdzić w narzędziu Google Analytics.

Aby ocenić czas spędzony na stronie, trzeba określić swoje oczekiwania na podstawie publikowanych treści.

Time to First Byte (TTFB)

Wartość mierzona w milisekundach, określająca ile czasu upływa od momentu, gdy użytkownik wejdzie na stronę WWW (kliknięcie w link lub wpisanie adresu URL), do czasu, gdy zobaczy pierwszą informację ze strony. Im krótszy TTFB (czas reakcji serwera), tym witryna szybciej się ładuje.

Top-Level Domain (domena najwyższego poziomu)

Top-Level Domain, czyli domena najwyższego poziomu to ostatnia część nazwy domeny. Element ten jest zapisany po ostatniej kropce adresu strony internetowej. Nazywany jest również sufiksem, rozszerzeniem i końcówką domeny. Wskazuje obszar geograficzny lub miejsce działalności związane z witryną. Najpopularniejszym TLD na świecie jest rozszerzenie .com, a w Polsce końcówka .pl. Ich administrowaniem zajmuje się IANA, która jest funkcją ICANN – instytucji odpowiedzialnej za przyznawanie nazw domen.

Topic clusters

Topic clusters — zespoły treści zawarte na podstronach w ramach jednego głównego tematu, połączone odnośnikami. Składają się z pillar page, cluster content (poszerza temat z pillar page) i hiperłączy (między pillar a cluster content). Ułatwiają nawigację witryny dla użytkownika. Linki w ramach topic clusters służą zatrzymaniu na dłużej użytkownika w witrynie. Robotom wyszukiwarek pomagają lepiej zaindeksować stronę. To wpływa na jej pozycję w wyszukiwarce, autorytet i większą liczbę odwiedzin.

Topical Authority

Topical Authority — określa wartościowe treści na stronie, za jakie uznał je Google. Roboty wyszukiwarki rozpoznają temat na podstawie słów kluczowych i sprawdzają, czy jest on pogłębiany na podstronach (linkowanie). Składa się z EAT (expertise, authority, trust). Treści TA muszą zawierać naturalne słowa kluczowe, związane z tematyką artykułu lub ogólnie witryny. Teksty TA powinny być jak najbardziej wyczerpujące. Polepsza pozycję stronę w wyszukiwarce i zwiększa konwersję.

Traffic (ruch na stronie)

Traffic (ruch na stronie) określa ilość wizyt, użytkowników i ich czas pobytu na stronie w określonym czasie. Analiza ruchu jest potrzebna w tworzeniu strategii marketingowych i planowaniu działań, które przyczynią się do zwiększenia wartościowego ruchu na stronie. Źródłem ruchu są wyniki wyszukiwania organiczne (bezpłatne) i płatne. Ruch bezpłatny może też być generowany przez wejście na stronę przez pasek przeglądarki, media społecznościowe, e-mail i odnośniki na innych stronach.

Trust (zaufanie)

Trust odnosi się głównie do historii domeny. Na podstawie wielu czynników Google ocenia, czy dana strona internetowa jest godna zaufania. Do takich czynników zalicza się m.in. cytowanie lub zawieranie na niej źródeł eksperckich, dostosowanie do wskazówek Webmastera i odpowiednia polityka prywatności. Zaufane witryny mają większą szansę na zyskanie wysokiej pozycji dla poszczególnych wyników wyszukiwania.

TrustRank

TrustRank to wskaźnik rankingowy stworzony przez firmę Yahoo. Jest alternatywą dla opracowanego przez Google – PageRank.

TrustRank pozwala ocenić poziom zaufania do badanej strony internetowej na podstawie analizy linków przychodzących i wychodzących. Na przykład: im więcej linków kieruje na stronę WWW z wartościowych źródeł, tym ranking strony jest wyższy.

TrustRank można sprawdzać m.in. takim narzędziem jak TrustRank Checker.

URL (Uniform Resource Locator)

URL (Uniform Resource Locator) to adres, który umożliwia odszukanie zasobów internetowych (najczęściej stron). Składa się z nazwy protokołu (m.in. http, https, ftp, mailto), nazwy domeny, ścieżki, zapytania (parametru), kotwicy (fragmentu) i rozszerzenia (np. pl). URL powinien być krótki i łatwy do zapamiętania, bo to wpływa na lepszy jego odbiór przez roboty wyszukiwarki i pozycjonowanie strony. Jest jednym z rodzajów URI (Uniform Resource Identifier).

UTM

UTM, czyli Urchin Tracking Module to parametr, który dodaje się do standardowych adresów URL na stronach. Został stworzony przez firmę Urchin Software, która została przejęta przez Google w 2005 roku. Tagi UTM umożliwiają precyzyjne śledzenie ruchu z poszczególnych źródeł w witrynie. Takie dane gromadzą np. narzędzia analityczne. Parametr składa się z pięciu identyfikatorów: Source (źródło ruchu), Medium (rodzaj ruchu), Campaign Name (kampania), Campaign content (treść), Term (słowa kluczowe).

UX (User Experience)

UX (User Experience) to pojęcie opisujące ogół reakcji, wrażeń i emocji użytkownika w kontakcie z daną aplikacją, stroną internetową lub innym produktem. UX ma znaczenie dla SEO. Kiedy strona jest funkcjonalna, przejrzysta, atrakcyjna wizualnie, a nawigacja ułatwiona, użytkownik chętnie z niej korzysta. Czas sesji jest dłuższy i prowadzi do sprzedaży. Elementy UX to: funkcjonalny i atrakcyjny design, łatwa nawigacja, dostępność na każdym urządzeniu, szybkie ładowanie, ciągłość działania strony.

Unikalny użytkownik

Unikalny użytkownik (unique visitor / user) określa liczbę pojedynczych użytkowników, którzy odwiedzili stronę po raz pierwszy w określonym przedziale czasowym. Identyfikuje się ich przez adres IP i dane zgromadzone przez cookies. Parametr UU nie uwzględnia faktu, że z jednego komputera może korzystać kilka osób, strona wyświetlana jest na różnych przeglądarkach, a pliki cookie są czyszczone. Dane o UU dostępne są w Google Analytics.

User Agent

Nagłówek identyfikujący, składający się z ciągu znaków, wysyłany protokołem HTTP przez program (przeglądarkę lub bota), który nawiązuje połączenie z serwerem internetowym.

User Engagement

User Engagement, czyli z języka angielskiego zaangażowanie użytkownika to reakcje lub zachowanie internautów wobec cyfrowej oferty: strony WWW, produktu czy usługi. Wchodzenie w interakcję z serwisem prowadzi do budowania przywiązania, tworzenia społeczności oraz rozprzestrzeniania się informacji o witrynie. User Engagement mierzy, czy użytkownicy znajdują wartość w oferowanych zasobach. Zaangażowanie przejawia się np. poprzez wyświetlenia, czas spędzony na stronie, komentarze czy udostępnienia.

User Friendly

User Friendly to sposób tworzenia strony i treści, które są przyjazne użytkownikowi. Strona musi być przejrzysta, łatwa w nawigacji (dotarciu do pożądanych części strony) i szybko się ładować. Teksty z kolei powinny być zaprezentowane w formie ułatwiającej znalezienie i przyswojenie informacji. To wszystko wpływa na czas sesji na stronie, a tym samym na lepszą pozycję w wyszukiwarce oraz konwersję.

User Generated Content

User Generated Content (skrót: UGC) to treści publikowane przez użytkowników. To wszystkie materiały, które stworzyli na temat marki niezależni i nieopłaceni konsumenci – najczęściej fani zadowoleni z oferty danej firmy.

UGC to zazwyczaj wpisy blogowe, zdjęcia produktu lub usługi, posty w mediach społecznościowych albo pozytywne opnie.

Często zdarza się, że treści publikowane przez użytkowników uznawane są za bardziej wiarygodne, niż materiały tworzone przez markę.

User Intent

Intencja, zamiar i potrzeby użytkownika, które wynikają z jego zachowania w Internecie. Warto brać je pod uwagę podczas tworzenia treści na stronę. Dla przykładu, użytkownik, który wpisuje w wyszukiwarkę frazę ,,buty sportowe’’ chce wejść na stronę sklepu internetowego.

User Interface (UI - interfejs użytkownika)

Wszystko to, co wyświetla się na stronie WWW, z czym osoba odwiedzająca może wchodzić w interakcje. Jego celem jest wywołanie pozytywnego wrażenia na internaucie. Interfejs użytkownika powinien być przejrzysty, prosty, spójny i intuicyjny.

Web Usability (użyteczność strony)

Poziom satysfakcji użytkownika, który korzysta z danej strony WWW. Określa, czy witryna jest przyjazna dla odwiedzającego, czy internauta może szybko się po niej poruszać i łatwo znaleźć interesujące go informacje.

White Hat SEO

White Hat SEO to wszelkie działania mające na celu optymalizację strony WWW zgodnie z wytycznymi wyszukiwarek internetowych. Stosowane w ramach pozycjonowania techniki w witrynie oraz poza nią mają wpłynąć na osiągnięcie wysokich pozycji w wynikach wyszukiwania. Są to np. systematycznie publikowane treści zawierające słowa kluczowe, instalacja certyfikatu SSL, zdobywanie wartościowych odnośników, optymalizacja struktury serwisu, wewnętrzne linkowanie czy przyśpieszenie ładowania witryny.

Widoczność strony

Widoczność strony to liczba fraz, na które strona wyświetla się w TOP5, TOP10 czy TOP50 organicznych wyników wyszukiwania. To także określenie organicznego ruchu na stronie na podstawie obecności strony w wyszukiwarce na określone słowa kluczowe. W celu poprawienia widoczności strony podejmuje się takie działania, jak regularne publikowanie zróżnicowanego i unikalnego contentu, stosowanie linkowania wewnętrznego i zewnętrznego. Organiczne wyniki to częste źródło konwersji (zdecydowany klient).

Wiek domeny (Domain Age)

Domain Age, czyli wiek domeny to czas działania domeny od pierwszej rejestracji. Wiek domeny jest jednym z głównych czynników rankingowych Google. Starsze domeny zazwyczaj osiągają lepsze pozycje w bezpłatnych wynikach wyszukiwania niż młodsze.

Wiek i historię domeny można sprawdzić narzędziem Wayback Machine.

Witryna

Witryna (serwis internetowy) to zbiór stron, podstron i innych dokumentów, w obrębie tej samej domeny. Zawiera elementy statyczne i dynamiczne, takie jak logowanie, czy formularze. Dzieli się na różne rodzaje, m.in. portale internetowe, serwisy społecznościowe, bankowość elektroniczną, blogi, e-sklepy, serwisy fotograficzne lub hybrydowe — składające się z różnych witryn. Witryna zazwyczaj umieszczona jest na jednym serwerze. Dzięki niej firma jest widoczna w Internecie i przyciąga klientów.

WordPress

WordPress to jeden z najpopularniejszych i największych systemów zarządzania treścią na stronie internetowej, czyli CMS. Daje on ogromne możliwości w zakresie tworzenia witryn czy narzędzi dostępnych online bez znajomości programowania. Wyróżnia się łatwością obsługi, bogactwem dodatków i sprawnym wsparciem w zakresie SEO. Pracują na nim firmy oraz osoby prywatne. WordPress to rozwiązanie typu open source, które umożliwia darmowe używanie i modyfikowanie kodu źródłowego.

Wpisy gościnne

Guest blogging polega na publikacji atrakcyjnych – również pod kątem SEO – artykułów na innych serwisach blogowych. Zwykle są to blogi tematyczne z treściami o wysokiej jakości. Możemy przez to rozumieć zarówno tworzenie przez nas tekstów na czyjąś stronę, jak i publikowanie postów innych autorów na naszej witrynie. Wpisy gościnne to popularne narzędzie content marketingu, które pomaga w budowaniu pozytywnego wizerunku i zdobywaniu wartościowych linków.

Współczynnik konwersji (Conversion Rate)

Współczynnik konwersji (Conversion Rate) wskazuje w procentach liczbę użytkowników, którzy, po kliknięciu w reklamę, podjęli określone działanie (pobrali e-book, wypełnili formularz, kupili produkt) na stronie docelowej (landing page). CR świadczy o opłacalności strony. Wylicza się go postawie wzoru: CR=liczba konwersji/liczba kliknięć w reklamę*100%.

Współczynniki zaangażowania

Współczynnik zaangażowania określa interakcje użytkowników z witryną i zawartą na niej treścią. Przykładem współczynnika zaangażowania może być między innymi współczynnik klikalności, współczynnik konwersji, współczynnik odrzuceń, czas spędzony na stronie oraz stosunek nowych do powracających użytkowników.

Wyjątkowa wizyta (Unique Visit)

Unique Visit, czyli unikalna wizyta to termin stosowany w analityce marketingowej online. Oznacza osobę, które odwiedziła stronę internetową pierwszy raz (nie była tu wcześniej) w okresie raportowania. To znaczy, że kolejna wizyta tego samego użytkownika w tym samym okresie nie zwiększy liczby Twoich Unique Visti.

Analizę unikalnych wizyt umożliwiają tzw. pliki cookies nazywane potocznie ciasteczkami.

Wyszukiwanie semantyczne (Semantic Search)

Wyszukiwanie semantyczne (Semantic Search) to rozwiązanie z zakresu sztucznej inteligencji (AI), mające na celu zrozumienie potrzeb i intencji użytkownika po wpisaniu lub wypowiedzeniu frazy w wyszukiwarce. Algorytmy Google badają kontekst zapytania, aby jak najlepiej dopasować odpowiedzi. Sprzyjają temu eksperckie, uporządkowane i zrozumiałe treści oraz link building. Semantic Search zakłada zmienność (aktualizację) wyszukiwań, ich różnorodność (grafiki, video, audio, tekst) i personalizację.

Wyszukiwarka internetowa

Wyszukiwarka internetowa to typ witryny, która jest wyposażona w odpowiednie oprogramowanie umożliwiające użytkownikom sieci wyszukiwanie informacji w zasobach sieci. Dzięki niej można szybko i łatwo odnaleźć interesujące treści. Narzędzie gromadzi i porządkuje bowiem zawartość, a następnie udostępnia ją internautom po wpisaniu odpowiedniego zapytania. Popularne wyszukiwarki takie jak np. Google, Yahoo! czy Bing są wykorzystywane także do marketingu cyfrowego i pozycjonowania stron WWW.

XML

XML to obecnie najpopularniejszy, rozszerzalny język znaczników przeznaczony do prezentowania różnych danych w zorganizowany sposób. XML jest niezależny od platform i umożliwia swobodną wymianę danych między różnymi systemami, dzięki czemu znacznie zyskał na popularności w dobie Internetu.

Yahoo!

Yahoo to jeden z najpopularniejszych amerykańskich portali internetowych. Jednocześnie jest pierwszą firmą, która stworzyła własną wyszukiwarkę, dzięki czemu odniosła globalny sukces. Kiedyś strona nazywała się „Jerry and David’s Guide to the World Wide Web”, z czasem, gdy stała się pierwszym katalogiem witryn o dużej popularności, została przekształcona w Yahoo!. Dziś oferuje dostęp do poczty, hostingu, chatów, komunikatora czy blogów. Serwis posiada wersje w kilkunastu językach.

Yandex - wyszukiwarka internetowa

Yandex jest rosyjskim odpowiednikiem Google, który powstał w 1997. Jest popularny głównie w rosyjskojęzycznej części Internetu. Wynika to z możliwości wyszukiwania informacji w językach takich jak rosyjski, kazachski, białoruski czy tatarski, które łączą podobna morfologia, alfabet oraz słownictwo. Yandex, w porównaniu do Google, zbiera zdecydowanie więcej danych na temat swoich użytkowników, co umożliwia dużo dokładniejsze targetowanie reklam.

Zakładka

Zakładka (ang. bookmark) to “zanotowany” adres strony w menu przeglądarki internetowej, pełniącej funkcję książki z adresami. Pasek zakładek umożliwia szybki dostęp do potrzebnych linków. Klikając w zakładkę, nie musisz wpisywać osobno adresu URL w pasek przeglądarki bądź wchodzić na daną stronę przez inną. Zakładka przechowuje lokalizację strony, ale nie jej zawartość, która może się zmieniać.

Zaplecza SEO

Zaplecza SEO to strony internetowe, które powstały, aby poprawić pozycjonowanie innej strony. Na zapleczach umieszcza się linki do witryny, której pozycję w wynikach wyszukiwania chce się wywindować.

Zaplecza są zazwyczaj stronami tematycznymi, na których można znaleźć wartościowe treści poradnikowe dotyczące konkretnej branży, np. restauracja.pl (gastronomia) czy dostomatologa.pl (branża stomatologiczna).

Zero-Click

Zapytanie w wyszukiwarce internetowej, które nie otrzymuje żadnych kliknięć. Użytkownik po wpisaniu danej frazy nie klika w żaden z prezentowanych wyników. Powodem może być to, że Google odpowiada na zadane pytanie za pomocą wyników z elementami rozszerzonymi. W ten sposób informacje podawane są już w wynikach wyszukiwania, a internauta szybciej je odnajduje.

Zero-Match Anchor Text

Zero-Match Anchor Text nazywany jest również anchorem tła. Jest to taki rodzaj zakotwiczenia linka, który nie zawiera w swojej treści słowa kluczowego nawiązującego do zawartości strony lub podstrony internetowej. Jest jednym z bezpieczniejszych i najbardziej naturalnych odnośników, choć przy tym może być neutralny pod względem SEO. Wykorzystuje się go zwykle, aby zachęcić użytkownika do podjęcia konkretnego działania lub by wskazać, gdzie znajdują się dodatkowe informacje np. "kliknij tutaj".

Zmiana algorytmu

Zmiany algorytmu usprawniają funkcjonowanie wyszukiwarki. Wprowadzenie niektórych zmian może zająć nawet kilka tygodni, natomiast ich efekty są widoczne niemal natychmiast. Zmiany algorytmu można rozróżnić w następujący sposób: aktualizacja algorytmu – wprowadzenie zmian w istniejącym algorytmie; odświeżenie algorytmu – ponowne uruchomienie istniejącego dotąd algorytmu, stosując dokładnie te same parametry; nowy algorytm – wprowadzenie nowego algorytmu w celu poprawienia jakości wyszukiwania.

Przeczytaj także

Co oznacza adres URL przyjazny wyszukiwarce?

Co oznacza adres URL przyjazny wyszukiwarce?

Adresy URL powinny być przyjazne zarówno dla użytkowników, jak i robotów wyszukiwarki. Co to dokładnie oznacza? Poprawnie skonstruowane adresy URL powinny z jednej strony dobrze opisywać, co znajdziemy na stronie, a z drugiej być proste i czytelne. Takie adresy są zrozumiałe dla algorytmów, a także budzą zaufanie wśród użytkowników.

Artykuł - ikonka Czytaj więcej

Czym są Meta Title, Meta Description i Meta Keywords?

Czym są Meta Title, Meta Description i Meta Keywords?

Meta dane, nazywane również meta znacznikami lub meta tagami, mają za zadanie opisać zawartość danej strony internetowej. Służą przede wszystkim robotom indeksującym zawartość sieci dla wyszukiwarek, ale także internautom. Dlatego umiejętne przygotowanie Meta Title i Meta Description ma wpływ na popularność strony internetowej. Dowiedz się więcej o meta danych i sprawdź, jak powinny wyglądać, aby były skuteczne.

Artykuł - ikonka Czytaj więcej