Blog

  • Jakość strony WWW a wpływ na SEO i pozycje w Google

    Jakość strony WWW a wpływ na SEO i pozycje w Google

    Jakość witryny powinna pozostawać głównym priorytetem dla każdego administratora strony internetowej. Jednak jak zdefiniować ten parametr? Czy jakość strony da się w jakikolwiek sposób mierzyć? Jak wpływa ona na SEO i pozycję witryny? Czytaj dalej, aby się dowiedzieć!

    W gonitwie za najlepszą pozycją w wyszukiwarkach, w trakcie szukania wartościowych linków oraz podczas regularnego dostarczania treści na stronę, nigdy nie można zapomnieć o jakości strony. To dość ogólne pojęcie, które może być różnorodnie interpretowane.

    W jakości chodzi bowiem o to, aby ułatwić użytkownikowi zdobycie informacji, po której kieruje się do danej witrynie. W dużej mierze chodzi więc tutaj o pojęcie user experience, czyli doświadczenie użytkownika – i związaną z nim szybkość, interaktywność oraz intuicyjność.

    Jednak czy takie podejście faktycznie rozjaśnia temat? I jak przekłada się to na pozycję strony?

    Jakość strony w oczach Google

    Gdy w 2020 r. Google ogłaszało zmianę algorytmu, zastosowana narracja skupiona była wokół jakości strony internetowej. Wyszukiwarka ogłosiła, że to właśnie doświadczenie użytkowników będzie mieć decydujący wpływ na pozycję strony w indeksie wyszukiwania.

    W celu badania tak pojmowanej jakości strony, Google posługuje się Core Web Vitals, czyli kluczowymi wskaźnikami efektywności. Są to:

    • LCP – czyli czas ładowania największego elementu na stronie;
    • FID – czyli czas jaki potrzebuje strona, aby można było z nią wejść w interakcję
    • CLS – czyli wskaźnik wizualnej stabilności strony (premiujący strony, w których poszczególne elementy nie zmieniają swojego położenia bez woli użytkownika).
    Wskaźniki Core Web Vitals
    Core Web Vitals – to jedne z podstawowych wskaźników jakości strony (seotagg.com)

     

    Do tego wśród czynników, na które Google zwraca uwagę, bardzo istotne pozostają możliwość korzystania z bezpiecznego połączenia HTTPS, struktura przyjazna urządzeniom mobilnym oraz brak uciążliwych pełnoekranowych reklam.

    Jakość a pozycja strony w Google

    Jak nietrudno zauważyć – powyższe wskaźniki odnoszą się przede wszystkim do kwestii technicznych. Czy oznacza to, że wystarczy przygotować stronę, która będzie szybka i interaktywna, aby można było liczyć na wysokie pozycje? Nie do końca.

    Treści na stronie w dalszym ciągu pozostają kluczowe dla pozycji w indeksie wyszukiwania. W końcu – jeżeli na witrynie nie będzie informacji, które mogą pomóc odwiedzającemu w rozwiązaniu jego problemu, to strona nie pojawi się w danym indeksie.

    Sama “techniczna” jakość – rozumiana jako dobre wyniki we wskaźnikach związanych z Core Web Vitals – może mieć decydujące znaczenie, gdy Twoja strona pojawi się jako wynik wyszukiwania obok innych witryn, które także odpowiadają na dane zapytanie odwiedzającego. W takiej sytuacji Google będzie zdecydowanie premiować strony, które działają szybciej i są bardziej bezpieczne.

    Czy Twoja strona jest wysokiej jakości?

    Skąd możesz dowiedzieć, się czy Twoja strona jest wysokiej jakości? Niezwykle pomocne okazują się następujące narzędzia:

    • PageSpeed Insights – to narzędzie pozwala na ocenę szybkości strony. W dużej mierze odnosi się także do Core Web Vitals. Jeżeli strona uzyska dobry wynik w tym badaniu – możesz liczyć na to, że jej jakość będzie oceniona wysoko;
    • Raport Google Search Console – wystarczy zalogować się do panelu GSC aby pobrać raport i dowiedzieć się, które obszary strony wymagają poprawy;
    • Web Vitals Chrome Extension – korzystając z przeglądarki Google Chrome wystarczy uruchomić dodatkowe rozszerzenie, aby na bieżąco sprawdzać wyniki we wskaźnikach Core Web Vitals;
    • Mobile Friendly Checker – Google premiuje strony, które są responsywne. Dzięki temu prostemu narzędziu możesz sprawdzić, jak wygląda responsywność Twojej witryny.
    Raport jakości GSC
    Wycinek z raportu „Jakość strony” z Google Search Console.

    Pamiętaj o tym, że powyższe testy nie wyczerpują tematu jakości strony. Odnoszą się one do pewnego technicznego wycinka – jednak nie analizują one np. jakości publikowanych treści.

    Jak możesz poprawić jakość strony?

    Korzystając z PageSpeed Insights (czy innych narzędzi) możesz zapoznać się z dość szczegółowymi wskazówkami dotyczącymi jakości strony. Pamiętaj, że dobra jakość owocuje w dobrej pozycji Twojej strony w wynikach wyszukiwania, więc jest to temat, któremu warto poświęcić nieco uwagi.

    Jeżeli zamierzasz poprawić jakość strony, skup się na kodzie i struktury strony. Pamiętaj o tym, że:

    • kod powinien być zoptymalizowany – często przyczyną kiepskiego działania strony może być zbyt obszerny kod, niepoprawny pod względem logiki HTML czy CSS, korzystający z wykluczających się komend i parametrów;
    • szablony i pluginy mogą być problemem – gotowe wtyczki oferują mnóstwo funkcji, które wcale mogą nie być wykorzystywane w Twoim serwisie. Wprawdzie rozwiązują pewne problemy, jednak generują wiele innych (np. pod postacią opóźnień). Zdecydowanie lepiej jest tworzyć strony bez takich gotowców;
    • responsywność jest kluczowa – strona powinna być dostępna i w pełni funkcjonalna zarówno z urządzeń desktopowych, jak i smartfonów czy tabletów;
    • trzeba zadbać o kompresję zdjęć – grafika przykuwa uwagę, ale może być także przyczyną opóźnienia w ładowaniu się witryny. Jeżeli odpowiednio skompresujesz pliki graficzne, korzystając np. z nowoczesnych formatów jak .webp, będą one wyglądać tak samo dobrze, zajmując zdecydowanie mniej miejsca – a przez to szybciej się ładując.

    Bardzo istotna jest także treść, którą publikujesz. Pamiętaj, że powinna ona:

    • być merytoryczna i wartościowa – jeżeli chcesz, żeby odwiedzający wszedł na Twoją stronę, musisz dostarczyć mu jakąkolwiek wartość. Dlatego przygotowując teksty na witrynę, pamiętaj o tym dla kogo piszesz;
    • mieć uporządkowaną strukturę – publikowany tekst powinien mieć logiczną strukturę oraz zhierarchizowane nagłówki. Nie tylko ułatwia to czytanie tekstu przez użytkownika, ale także pomaga algorytmom Google odnaleźć się w prezentowanych przez Ciebie treściach;
    • być oryginalna – teksty na Twojej stronie nie mogą powielać treści znalezionych gdzieś indziej w sieci. Taki zduplikowany content może obniżyć jakość Twojej strony w oczach Google i przyczynić się do spadku pozycji w indeksach wyszukiwania.

    Nie zapomnij także o tym, że jakość strony w dużej mierze zależy także od hostingu – czyli miejsca na którym przechowujesz stronę internetową. Dlatego też przyjrzyj się przede wszystkim:

    • limitom – pamiętaj o tym, że wybrany przez Ciebie serwer stosuje rozmaite limity, aby nie doprowadzić do zajęcia wszystkich zasobów serwera przez klientó Jeżeli chcesz, aby hosting nie przyczyniał się do pogorszenia jakości Twojej strony, zadbaj o to, aby mieć dostęp do przynajmniej 1 GHz (lub 1 rdzenia) procesora oraz 1 GB pamięci RAM, do przynajmniej 10 jednoczesnych procesów PHP oraz 1000 jednoczesnych połączeń HTTP. W ten sposób możesz liczyć, że strona będzie działać poprawnie nawet podczas większego zainteresowania;
    • technologiom – upewnij się, że Twój hosting korzysta z aktualnych technologii. Przyjrzyj się w szczególności wersji PHP oraz generacji protokołu HTTP – gdy serwer z nich korzysta, strona może działać szybciej i wydajniej. Warto zadbać także o to, aby hosting obsługiwał systemy pamięci podręcznej (Redis lub Memcached);
    • dyskowi twardemu – pamiętaj, że szybkość dysku ma ogromny wpływ na jakość strony. Jeżeli pliki witryny ładują się wolno, to bardzo często jest to wina właśnie nośnika, na którym są one umieszczone. Wybieraj dyski SSD, które są nawet kilkukrotnie szybsze od talerzowych HDD. A jeżeli zależy Ci na jak najwyższej szybkości – najlepszym rozwiązaniem będą dyski SSD NVMe;
    • certyfikatowi SSL – pamiętaj o tym, że dla Google certyfikat SSL to ważny element świadczący o jakości strony. Możliwość połączenia za pośrednictwem bezpiecznego protokołu HTTPS jest także doceniana przez samych użytkowników – w końcu dzięki temu mogą oni liczyć, że połączenie jest odpowiednio zabezpieczone (a tym samym – udostępniane przez nich dane). Wiele serwerów umożliwia darmowe korzystanie z bezpłatnej wersji certyfikatu.
    SSL a jakość strony
    Jakość strony opiera się także na jej bezpieczeństwie – warto korzystać z SSL – ssl24.pl

     

    Jakość strony to szerokie pojęcie. Podejście Google do tego tematu pokazuje, że kwestie techniczne mają bardzo duży wpływ na to, jak zostanie przyjęta dana strona. Jakość wpływa na pozycję w wyszukiwarce, więc powinna być jednym z głównych priorytetów podczas tworzenia i administrowania stroną.

     

    Wpis gościnny:

    Autorem tekstu jest Mateusz Mazurek. Związany z branżą SEO od 2006 roku. Wydawca i autor blogów internetowych. Tester usług hostingowych i twórca rankingów i porównań hostingów stron WWW.

     

  • Łamiąca wiadomość: Google zmienia wyświetlanie meta title

    Łamiąca wiadomość: Google zmienia wyświetlanie meta title

    Sierpień 2021, Wyszukiwarka firmy Alphabet, szerzej znana jako Google, zmienia zasady wyświetlania meta title w wynikach wyszukiwania. Panika we wsi, Niemcy na rowerach – czy to już koniec SEO?? Przyjrzyjmy się nowej rzeczywistości na podstawie oficjalnego oświadczenia Google w tej sprawie.

    Jak powstają meta tytuły widoczne w Google?

    W zeszłym tygodniu wprowadzony został nowy system generowania tytułów stron internetowych. Wcześniej tytuły mogły się zmieniać w zależności od wpisanego zapytania. W nowym systemie Google nie będzie to już miało miejsca. Dzieje się tak, ponieważ specjaliści Google uważają, że ich nowy system tworzy tytuły, które ogólnie lepiej sprawdzają się w przypadku dokumentów, lepiej precyzując czego dotyczą, niezależnie od konkretnego zapytania.

    Ponadto, chociaż od ponad dekady wyszukiwarka znacząco wykroczyła poza tekst HTML, aby tworzyć tytuły widoczne w SERP, nowy system jeszcze bardziej/lepiej wykorzystuje taki tekst. W szczególności wykorzystywany jest tekst, który ludzie mogą zobaczyć wizualnie po wejściu na stronę internetową. Google bierze pod uwagę główny tytuł wizualny lub nagłówek wyświetlany na stronie, część opisu, którą właściciele witryn często umieszczają w tagach <H1>, w innych tagach nagłówka lub która jest duża i widoczna dzięki zastosowaniu zabiegów stylistycznych (tekst, który od razu rzuca się w oczy).

    Żeby jednak nie było to tak proste i oczywiste, Google oświadczył, że Może wziąć pod uwagę również inny tekst zawarty na stronie, podobnie jak tekst w linkach wskazujących strony ;) Słowem – najpewniej meta tytuł w SERP zostanie wzięty z H1 lub pierwszego akapitu, ale w niektórych przypadkach może to być także inny, dowolny tekst z podstrony.

    Dlaczego Google nie weźmie po prostu znaczniku meta title?

    Dlaczego wyszukiwarka nie chce pokazywać 1:1 tagu HTML title? Powód jest prosty i gdyby się zastanowić głębiej, dość oczywisty – meta tytuły to często zlepki fraz kluczowych, nie zawsze opisujące to, o czym jest strona. Nie są to często pomocne opisy, a jedynie frazy kluczowe, randomowe treści w stylu „strona główna” czy „lorem ipsum”.

    Google oczywiście nie mógł sobie odpuścić zwrócenia uwagi na pewno zjawisko: „Upychanie” fraz kluczowych w meta uważane jest za świętego graala, a – jak twierdzą – nie zapewnia wyższych pozycji (powiedzmy że jest to…dyskusyjne:)

    Zmiana wyświetlania meta tytułów w SERP – co dalej?

    Ogólnie rzecz biorąc, ta aktualizacja ma na celu tworzenie bardziej czytelnych i przystępnych tytułów stron. W niektórych przypadkach wyszukiwarka może dodać nazwy witryn, które uzna za pomocne. W innych przypadkach, gdy napotka bardzo długi tytuł, może wybrać najbardziej odpowiednią jego część, zamiast zaczynać od początku i skracać bardziej przydatne części.

    Czy zatem można odpuścić sobie pisanie meta tytułów „jak dawniej”?

    Oczywiście że nie. Jednak główna rada dla właścicieli witryn pozostaje taka sama. Skoncentruj się na tworzeniu świetnych tagów tytułowych HTML, jak najlepiej opisujących daną podstronę – bez upychania fraz kluczowych (bla, bla). Ze wszystkich nowych sposobów, jakimi generowane są nowe meta tytuły, zawartość z tagów HTML title jest nadal najczęściej używana, w ponad 80% przypadków (sierpień 2021).

    Google pozostawia sobie furtkę na „udoskonalenie systemu” i zapowiada wprost, że okres przejściowy może generować różne kwiatki. Już niby widać DOBRĄ ZMIANĘ ;) ale ma być jeszcze lepiej, och, ach, jak wspaniale ma być.

    Robimy dalej swoje, najlepiej jak umiemy. Cały czas ma to sens – a jeszcze większy sens ma teraz praca nad dobrymi i konkretnymi nagłówkami H1, z których będzie czerpana zapewne treść widoczna w SERP.

    Howgh!

  • Core Web Vitals: kolejny święty graal SEO

    Core Web Vitals: kolejny święty graal SEO

    Jakość serwisu internetowego można definiować na 100 sposobów, oczywiście również przez pryzmat wytycznych dla Webmasterów od Google. Ostatnio sporo mówi się też o nowym spojrzeniu na tę jakość – bo pojawiły się nowe sygnały do mierzenia –   tzw. Coral Web Vitals, czyli wskaźniki określające doświadczenia jej użytkowników jeśli chodzi o szybkość ładowania, interaktywność oraz stabilność wizualną. Słowem: sajt będzie tak dobry, jak bardzo użytkownik na niego wchodzący nie będzie poddawany próbom na cierpliwość, wytrwałość i dociekliwość. Zatem czym są te mityczne Core Web Vitals?

    Core Web Vitals – charakterystyka

    Web Core Vitals to podstawowe wskaźniki internetowe wykorzystywane do analizy użyteczności  strony internetowej, charakteryzujące odczucia użytkownika w tym zakresie. Wśród nich należy wymienić:

    • Largest Contentful Paint (LCP) – czas niezbędny danej witrynie do załadowania największego elementu contentu (np. blok tekstu, grafika). Wskaźnik ten zasadniczo powinien wynosić maksymalnie 2,5 sekundy.
    • First Input Delay (FID) – czas upływający od pierwszej styczności użytkownika z witryną (np. kliknięcie linku lub buttona) do rzeczywistej odpowiedzi przeglądarki na tę interakcję. Jego wartość powinna oscylować poniżej 100 milisekund.
    • Cumulative Layout Shift (CLS) – suma wszystkich niespodziewanych przesunięć (zmian położenia danego elementu), mających miejsce w trakcie ładowania lub użytkowania witryny. W praktyce do wyliczenia tego wskaźnika wymagany jest pomiar odległości przesunięcia obiektu oraz określenie obszaru ekranu, na którym widoczna jest ta zmiana. Następnie obie wartości przedstawiane są w postaci ułamka i mnożone. CLS nie powinien przekraczać 0,1.
    core web vitals co to?
    Składowe Core Web VItals – żródło: https://web.dev/vitals/

     

    Oczywiście posiłkując się wyłącznie powyższymi wskaźnikami, nie przeprowadzimy kompleksowej analizy funkcjonalności danej witryny. Jednakże biorąc pod lupę czas wczytywania się treści na stronie czy komfort jej obsługi, możemy dokonywać ulepszeń w tych obszarach, zwiększając w konsekwencji przykładowo liczbę odsłon oraz konwersje (np. dokonanie zakupu, zapisanie się do newslettera).

    Skuteczny pomiar Web Core Vitals

    Informacje na temat Web Core Vitals dostępne są w raporcie dotyczącym UX Chrome (Chrome User Experience Report) oraz w Google Search Console. Źródłem danych są w tym przypadku sesje rzeczywistych użytkowników sieci. Wszystkie wymienione wskaźniki wyliczone na podstawie omawianego raportu można odczytać też w PageSpeed Insight, a jeśli będą one odstawać od założonych norm, w Search Console wyświetli się stosowny komunikat. Warto też dodać, że PageSpeed Insights oraz Lighthouse umożliwiają odczyt LCP i CLS bazujących na danych laboratoryjnych, które mogą nieco odbiegać od informacji zebranych wśród realnych użytkowników Chrome. Ponadto w PageSpeed Insights dostępna będzie także informacja o elemencie, który został wybrany jako największy dla wskaźnika LCP. W tym przypadku przydatna może okazać się również możliwość sprawdzenia obiektów odpowiedzialnych za przekroczenie jego prawidłowej wartości.

    Core Web Vitals w Search Console
    Raport z obecnego stanu Core Web Vitals znajdziecie w Google Search Console

    Analiza Core Veb Vitals z wykorzystaniem rozszerzenia do przeglądarki

    Wykorzystując rozszerzenie Web Vitals z Chrome Web Store, można odczytać faktyczne wartości omawianych wskaźników internetowych wyliczone bezpośrednio na naszym komputerze, od razu przeglądając witrynę. W tym przypadku obserwacja dynamiki zmian wskaźnika CLS w tracie korzystania z witryny pozwoli nam zidentyfikować element o najbardziej zmiennym położeniu. Warto dodać, że w taki sposób można zarejestrować przesunięcia, które w warunkach laboratoryjnych nie zostaną wykryte przez PageSpeed Insights czy Lighthouse. Posługując się wspomnianym rozszerzeniem, można ponadto przeanalizować, która interakcja ma największe opóźnienia (wskaźnik FID).

    Implementacja ulepszeń w obszarze Core Veb Vitals

    Google precyzyjnie określa optymalne wartości omawianych wskaźników. Jednakże niewykrycie błędów przez Search Console nie jest równoznaczne z brakiem konieczności wprowadzania ulepszeń w tym zakresie. Słabe wyniki danej witryny pod względem różnych wskaźników związanych z SEO i ogólną jakością stron, mogą bowiem wpłynąć negatywnie na jej pozycjonowanie (ranking factor), a także na satysfakcje osiąganą przez jej użytkowników (w konsekwencji także na czas trwania sesji, konwersji i wtórne wyniki w SERP-ach). Z drugiej jednak strony jeśli informacja o błędzie pojawiająca się w Search Console nie wpływa negatywnie na wyniki wyszukiwania, warto zastanowić się, czy dany problem w ogóle oddziałuje na estetykę, intuicyjność czy przyjazność witryny (tzw. User Experience). Oczywiście nie dziwi fakt, że metoda wyliczania Core Web Vitals w niedalekiej przyszłości może ulec zmianie – tak, jak i zmienia się algorytm. W niektórych przypadkach kosztowna przebudowa witryny będzie więc zupełnie nieopłacalna.

    Core Web Vitals: Podsumowanie

    Core Web Vitals to wskaźniki służące do oceny zadowolenia użytkowników korzystających z danej witryny. Są one wyliczane na bazie danych, które mają również istotny wpływ na widoczność danej strony internetowej w wynikach wyszukiwania. Z tego względu ulepszenia w zakresie UX zapewne nie tylko wydłużą średni czas spędzany na stronie czy obniżą współczynnik odrzuceń, ale też pozytywnie wpłyną na jej pozycjonowanie. Na koniec warto zaznaczyć, że Google planuje (nie wcześniej niż w 2021 r.) wprowadzenie aktualizacji algorytmu wyszukiwania, która oficjalnie sprawi, że Core Web Vitals będą istotnym czynnikiem rankującym. Zatem, czy warto zwlekać z ulepszaniem wskaźników LCP, FID i CLS?

  • Pełny Mobile First Index od września 2020!

    Pełny Mobile First Index od września 2020!

    Google zmienia zasady indeksowania dla wszystkich domen – pierwsze indeksowanie mobilne dla całej sieci

    Od ostatnich kilku lat Google pracuje nad projektem „Mobile-First Indexing” – czyli indeksowaniem mobilnym sieci przez osobny,  dedykowany silnik z wykorzystaniem Googlebota. Jak wskazują przeprowadzone przez Google badania, zdecydowana większość stron internetowych wyświetlanych na liście SERP  nadaje się perfekcyjnie do indeksowania ich na urządzeniach mobilnych. Ponadto aż 70% z analizowanych przez wyszukiwarkę witryn, już dokonało takiej zmiany od pamiętnego roku 2015, później 2017, kiedy to po raz pierwszy pojawił się tzw. „Mobilegeddon„. Google zamierza w końcu to uprościć, więc od września 2020 roku wszystkie strony internetowe zostaną przełączone na osobne indeksowanie mobilne.

     

    Mobile First Indexing już od września obejmie wszystkie strony

    Jak będzie wyglądała rzeczywistość indeksacji wyników po 20 września 2020? Jak możemy dowiedzieć się z oficjalnego bloga Google: – „Przy całkowitym przejściu na indexowanie mobilne, automatycznie nastąpi wzrost wartości indeksowania Googlebota mobilnego. Ponadto automatycznie zaktualizujemy nasz indeks po to, aby był zgodny z mobilną wersja twojej domeny. W zależności od domeny, taka zmiana może zająć trochę czasu. Następnie, od czasu do czasu będziemy indeksować stronę przy wykorzystaniu tradycyjnego stacjonarnego Googlebota. Aczkolwiek w zdecydowanej większości, indeksowanie będzie wykonywane poprzez naszego smartfonowego klienta. Dokładna nazwa klienta będzie zgodna z  wersją przeglądarki Chrome, na której strona internetowa została wyrenderowana.”

     

    Wrześniowy Mobile First Index a Google Search Console

    Dziś w Search Console można na kilka sposobów sprawdzić indeksowanie na urządzeniach mobilnych. Status jest wyświetlany zarówno na stronie ustawień (settings page) oraz w „Sprawdzanie adresu URL„, podczas sprawdzania danego adresu w kontekście jego ostatniego indeksowania.

    Ogólne wskazówki Google dotyczące tego jak sprawić, czy wszystkie podstrony Twojego serwisu nie będą miały problemu  z indeksowaniem mobilnym, są aktualne zarówno w stosunku do nowych jak i już istniejących witryn. Tu się póki co nic nie zmienia w GSC. W szczególności warto sprawdzić czy wyświetlana treść jest dokładnie taka sama (zarówno tekst jak i również zdjęcia, filmy, linki) na desktopie i na mobile. Podobnie sprawa powinna wyglądać w przypadku metadanych (tytuły, opisy, metatagi robot) oraz danych strukturalnych. Warto je dokładnie sprawdzać za każdym razem kiedy strona jest uruchomiana po raz pierwszy bądź zachodzą na niej duże zmiany onsite. W Narzędziach do Sprawdzania Adresów URL (URL Testing Tools) możesz bezpośrednio sprawdzić zarówno stacjonarną jak i mobilną wersję strony internetowej. Jeżeli korzystasz z innych narzędzi do sprawdzania strony internetowej takich jak narzędzia monitorujące czy roboty internetowe, skorzystaj z mobilnego klienta użytkownika, jeżeli zależy ci na tym, żeby wyniki były zgodne z tym co wyświetla wyszukiwarka Google.

     

    Responsywna czy mobilna? Co na to Google?

    Faktem jest, że Google wspiera różne sposoby tworzenia mobilnych stron internetowych – i do tej pory nie było jasnego komunikatu, które rozwiązanie jest lepsze bądź preferowane. Mimo to jednak w związku ze zmianą indeksowania, wyszukiwarka oficjalnie zaleca responsywne tworzenie stron internetowych (Responsive Web Design -> RWD). Sugerują również unikania wykorzystania oddzielnych mobilnych adresów URL (zwykle nazywanych „m-dot”), ze względu na liczne problemy oraz zamieszanie, do którego prowadzą zarówno w kontekście samych wyszukiwarek jak i użytkowników. Taki obrót spraw chyba nikogo nie dziwi, a ktoś, kto zajmuje się SEO/WW od dłuższego czasu, z pewnością sam już dostrzegł ogromną przewagę RWD.

     

    Osobny indeks mobilny – duża zmiana

    Pierwsze indeksowanie mobilne przeszło daleką drogę – w 2020 roku minie 5 lat od pierwszej wzmianki oraz 3 lata od pierwszego, częściowego uruchomienia MFI. To ciekawe, obserwować jak Internet ewoluował z wersji stacjonarnej na mobilną i jak właściciele serwisów i webdesignerzy pocili się, aby na prędce „dorobić” wersję mobilną, RWD lub całkowicie przebudować swój serwis na przyjazny urządzeniom mobilnym. Google docenia pracę jaką przez lata wszyscy w to włożyli, bo pomaga im to sprawić, że zmiana ta będzie bardziej płynna. Idzie ku lepszemu, przesiedliśmy się wszyscy na małe ekrany – a świadomość wagi tej zmiany jest raczej tak duża, że chyba nikogo już to nie przeraża i większość z nas (Seowców, webdesignerów, administratorów) jest zwyczajnie gotowa.

     

    Na podstawie komunikatu Google na blogu dla Webmasterów, 05.03.2020

  • Optymalizacja pod Voice Search – hit czy mit?

    Optymalizacja pod Voice Search – hit czy mit?

    Jak tam wizjonerzy, pasjonaci i game changerzy? Optymalizacja Voice Search już sprzedana ? To lepiej zakopcie poniższego tweeta pracownika Google – Gary Illyes’a gdzieś głęboko, bo to nie będzie współgrało z niejednym gorącym story sprzedażowym ;)

    Optymalizacja Voice Search – hit czy mit?

    Odkąd ziemia zastygła i pojawiły się dinozaury, a specjaliści SEO zeszli z drzewa, każdy chce być innowacyjny, przewidujący i tak bardzo na bieżąco, że strumień wody Wodogrzmotów Mickiewicza tam hen, pod Zakopanem, chowa się, w porównaniu ze świeżym nurtem wizjonerskim naszej rodzimej branży SEO – tacy bywamy ekstra fresh, trendy i cool, przewidując co i rusz jakie to internetowe rewolucje przed nami.

    Z wypiekami na twarzy obserwujemy „zachód” i z kawałków informacji staramy się wychwycić coś, co będzie:

    • przełomowe
    • wizjonerskie, sexy i trendy
    • sprzedażowe
    • da klientowi poczucie że panujemy nad sytuacją
    • pomoże klientowi wypchnąć frazę „rower” na pierwsze miejsce SERP
    • da się zmonetyzować! ha!

    To to coś pomoże nam jeszcze lepiej sprzedać SEO! I oto jest! A w zasadzie było – Voice Search mili Państwo!
    Dlaczego akurat voice search? Co to jest voice search zapytacie – spieszę odpowiedzieć – otóż w dobie postępu (w domu i zagrodzie), gdzie mówimy do telefonów nie tylko dlatego, że prowadzimy rozmowę i nie tylko dlatego że nagrywamy notatkę głosową – a dlatego że chcemy czegoś WYSZUKAĆ W GOOGLE (wow, such new, many fresh!) Voice search będzie realnym kanałem dotarcia nowego użytkownika do Twojego serwisu internetowego. Doszły też do tego głośniki domowe z funkcją AI (ej-aj, przy. redakcja) – Jak Google Home, Apple HomePod czy Amazon Echo. Tam drzemie zapowiadany dawno potencjał, nowa ziemia obiecana i King-Size (dla każdego!).

    Jak działa takie wyszukiwanie głosowe?

    Otóż zasadniczo i pobieżnie tak samo jak klawiaturowe: jest sobie fraza/zapytanie, podajemy ją paszczowo (zamiast pac-pac w klawikordy) telefonowi lub głośniczkowi, po czym dzieje się magia (rzeczy niestworzone!) i oczom, a raczej uszom naszym w tym wypadku ukazują się SERPY, zwane też wynikami wyszukiwania (Ok, Boomer). Słyszymy pierwszy sugerowany wynik i odczytywana jest nam treść, którą Google uznało za najbardziej relewantny tekst.

    Generalnie to samo co na kompie, ale jakby kanał wejścia inny. Dodatkowo, Voice search opiera się na przetwarzaniu używanego przez usera języka (tzw. Natural Language Processing) a także programowej syntezie mowy danego języka typu Text-to-Speech (TTS). Skomplikowane? Nie. Tylko napisane mądrze.

    Nasz język został „wprowadzony” do Google już dawno temu i jest coraz lepiej rozkminiany (Zmiana Algorytmu Koliber – Humming Bird 2013, potem Rank Brain, a ostatnio BERT). To wszystko ma na celu lepsze odgadywanie zapytań użytkownika, lepsze rozumienie jego intencji i ogólne – wyświechtane niczym „i was on a brake” w serialu „Przyjaciele” – poprawienie jakości SERP.

    I ten Voice Search nadchodzący niczym kometa w Panu Tadeuszu, dzięki swej innowacyjności, nowatorskiemu wybrzdękowi i super-sztuczno-inteligenckiemu flow sprzedażowemu stał się hitem wieszczonym na wszystkich konferencjach SEO,  setkach artykułów branżowych (tych merytorycznych i tych typowo pod wyszukiwarkę) no i zapewne na wielu spotkaniach z działami marketingów, gdzie klienty z wypiekami czekali na pierwszy ruch swoich dobroczyńców od lepszej widoczności w głośniku Alexa i Echo ;)

    Voice Search poszedł spać.

    I wtedy wchodzi Gary, cały na biało, z tym jednym Tweetem i robi pobite gary:

    Tłumaczenie z lengłydż (mniej więcej, bo fad to sleep się nie tłumaczy dosłownie):

    „Jest nowy rok, może odłożymy w końcu optymalizację pod voice search na półkę… [taka jakby smutna buźka]”

    Optymalizacja pod voice search – czy zatem warto?

    Dla wielu z Was to może być zwykły tweet, ale Gary od dłuższego czasu deprecjonował już między wierszami a także oficjalnie VS, jako mało istotny (póki co). Wiele razy mówił, że w najbliższej przyszłości ważniejsze będą obrazy i multimedia (Google Image Search FTW!). Pisał jak człowiek: przestańcie się martwić o wyszukiwanie głosowe. 

    Voice search chyba wcale nie tak popularny

    Dlaczego w narzędziach analitycznych Google wciąż nie ma nic; żadnych filtrów głosowych do raportów Google Search Console (a ZAPOWIADALI W MAJU!)? Dlaczego w Analyticsie wciąż próżno szukać takiego kanału, urządzenia, whatever?

    Wyszukiwanie głosowe to nic innego jak słowo kluczowe, które jest uruchamiane za pomocą innego medium. Nie ma nawet za bardzo jak śledzić te zapytania na chwilę obecną, można jedynie spekulować.
    Google nie zapewnia żadnego wskazania / rozróżnienia między wyszukiwaniem tekstowym (normalnym) lub głosowym. Możesz jedynie przeglądać dane wyszukiwania (Googles: Search Console, Analytics i reklamy oraz potencjalnie dzienniki dostępu do serwera, dla kilku podanych haseł wyszukiwania) i próbować zidentyfikować zapytania typu long-tail i te, na które optymalizowałeś klienta tylko pod VS.

    Nie pamiętam już czy to Nostradamus, czy Search Engine Jurnal (czy ComScore, czy CampaignLive, czy Quora) przepowiadali, że do 2020 roku liczba zapytań głosowych pyknie na szalone 50%! Coś nie pykło, a już na pewno nie w zapytaniach komercyjnych.

    Z kolei głośniki Amazon miały być dostępne w co 2 domu (ja nie mam, somsiad na pewno tez nie bo woli w Passata i Harnasie ładować) więc i tu tak nie bardzo ten postęp ruszył z kopyta. Co poszło nie tak?

    Statystyk za 2019 jeszcze nie ma – za wcześnie. Póki co internet wypakowany jest powielanymi wszędzie predykcjami na 2019 – a najciekawsze imho znajdziecie tutaj, w serwisie QuoraCreative. Jest to co prawda odświeżony artykuł z początku ubiegłego roku, ale dane – choć już wiemy że fikcyjne – dość ciekawe.

    Wiemy natomiast że wielkiego bumu wciąż nie ma – owszem, jest powiew świeżości, ale nie zrewolucjonizowało to naszego życia ani pracy w SEO.

    Epilog.

    Pewnie część z Was się ze mną nie zgodzi, ale zdecydowałem się napisać ten nudnawy wpis, ponieważ w pracy codziennej spotykam się z serwisami i specjalistami SEO, którzy ciągle mówią o wyszukiwaniu głosowym, optymalizują i dziady odprawiają nad stronami klientów, kupując ich zaufanie, a … page speed 11/100, meta dane w 40% przypadków za długie, mikroformaty? nie da sie – o badziewnym linkowaniu z for i katalogów nie wspominając. Patrzymy na horyzont, nie patrzymy pod nogi.

    Osobiście uważam że wyszukiwanie głosowe w Polsce to póki co plankton, a wszystko to, co jest tematem takich wyszukań to w większości „jak”, „gdzie”, „kto”, „ile” (i inne zapytania o wiedzę) a także wskazówki dojazdu oraz w mniejszej ilości – zapytania komercyjne.

    Czy warto  optymalizować sajt pod VS? Na pewno tak, jeśli wszystkie inne potrzeby z piramidy SEO-maslowa mamy zaspokojone. Ale wciskanie klientowi nawijki, że to must-have, że rewolucja, że trzeba robić, że ten segment puchnie – to delikatnie mówiąc mrzonki.

    Ta era z pewnością nadejdzie, ale w mojej ocenie – jak mówił duży śniady pan do Russela Crowe w filmie Gladiator: „Not yet, not yet”.