Zmiana algorytmu Google Świstak - Groundhog

Świstak, czy to ty? Czy była zmiana algorytmu Google?

Świstak, czy to ty? Czy była zmiana algorytmu Google?
4.62 (92.38%) 21 votes

Historia, która obiegła Search Engine Land kilka dni temu, w zestawieniu z dziwnymi wynikami na przyrządach pomiarowych SERP  rzuca światło na możliwą zmianę algorytmu Google. Tradycyjnie, każdy chce się nieco ogrzać w cieple takiego gorącego newsa. To, że Barry Schwartz posiada sporą wiedzę to jedno, a to że ma swoje małe alter ego, którym jest zapewne jednym z członków zarządu Google Inc. to inna sprawa ;) Fakt jest taki, że niestety często gawiedź powtarza za nim ślepo, traktując niekiedy jego informacje jako „te od Google” – a takowymi nie są. Przyjrzyjmy się zatem zmianie algo o nazwie „Świstak”, która być może jest niczym innym jak uzewnętrznieniem czyichś fantazji, wszak wciąż nie została potwierdzona przez Wyszukiwarkę. Co ciekawe, zanim wiadomość stała się popularna, pojawiła się informacja o nowym patencie Google. I to dopiero jest news!

Czy nowy patent Google to właśnie aktualizacja Świstak?

 

Zmiana algorytmu Google - Świstak

źródło: quickmeme.com

 

Patent został przyznany 31 stycznia 2017 i bardzo możliwe, że to, co zostało w nim opisane to dokładnie to, co ludzie zgłaszali jako „aktualizacja algorytmu” w notce Search Engine Land.
Algorytm, który stoi za nowym patentem Google, opiera się na rankingach uwzględniających liczbę zasobów linkujących do źródła, które ma być ocenione (jak w patencie PageRank Stanforda). Historycznie rzecz biorąc, w Google, strona, która posiada wiele zasobów do niej linkujących może zajmować wyższą pozycję niż inne strony, które tych linkujących zasobów mają mniej (co jest oczywiste i zawsze było). To się nazywa profil linkowy domeny i niektórzy uważają, że to wciąż 70% Twojego sukcesu ;) A reszta jest jedynie dopełnieniem. Ale co, jeśli Google postanowiło przyjrzeć się bliżej tym zasobom i zmniejszyć trochę siłę rankingową, którą przekazują linki? Mogliśmy zauważyć oznaki podobnego działania w ramach patentu Reasonable Surfer, który zawierał linki przekazujące różne ilości PageRanku. Innym sposobem zmiany tego, ile PageRanku może zostać przekazane przez link, może być ocenianie ilości ruchu, który strona może otrzymać dzięki linkom i ilości czasu, który użytkownicy z tych linków spędzą na stronie, czy będą to krótkie, średnie czy długie odesłania.

Ale zaraz… przecież PageRank kaput; geszlosen!

No właśnie raczej nie. Owszem, oficjalnie Googlowy PageRank został wyłączony. Ale c’moooon… jak można wyłączyć coś, co jest kręgosłupem algorytmu :) Algorytm Google powstał na PageRanku. Od tego się zaczęło, że wzór na PR został „obudowany” dodatkowymi funkcjami. Nie można go tak po prosto wyłączyć. Można go za to ukryć. I to, w naszej ocenie miało miejsce. PR jest, działa, ma się świetnie – ale możliwość jego sprawdzenia została ukryta, aby „paczki mocnych linków PR5-10” nie pojawiały się na różnych e-bazarkach ;) Zwyczajnie możliwość manipulacji tym parametrem została ludziom odcięta.

Wróćmy jednak do zmiany w algo…
Podejście do linkowania może również uwzględniać inne aspekty linków, takie jak np. anchor text dla linku odwołującego się do zasobu źródłowego, który z kolei uzna go za tzw. n-gram i przypisze anchorowi punkty źródłowe nadające ranking. Brzmi tajemniczo, ale takie nie jest – generalnie jeśli podlinkujesz na „opony” swój sklep z oponami (prościzna, jeden link powinien wystarczyć;), to będzie to miało większą moc sprawczą, aniżeli link prowadzący do Twojego kramiku na frazę „strona główna„.
A tu macie interesujące oświadczenie, które można przeczytać w nowo przyznanym patencie:

Rankingi wyników wyszukiwania mogą być regulowane na podstawie skłonności zapytania do wyciągania w wynikach wyszukiwania tych pozycji, które są powiązane ze spamem. Waga zliczonych linków zasobu, w procesie ustalania pozycji, może zostać zredukowana dla zapytań, które mają wysoką tendencję do wyciągania na powierzchnię SERP powiązanych ze spamem wyników wyszukiwania, po to, aby zmniejszyć wypaczenie rankingu zasobów spowodowane zasobami, które posiadają nieproporcjonalnie dużą liczbę linków w porównaniu z liczbą wyboru tych linków.

Poniżej zaś tłumaczenie na ludzki:

Są branże i obszary, gdzie żeby się wybić w SERP trzeba „przypalić” profil linkowy automatem i dużo sajtów tak robi. W tych branżach i obszarach Big G potencjalnie chce zwracać mniejszą uwagę na profile linkowe, żeby nie serwować użytkownikowi stron „wypozycjonowanych” w sztuczny sposób.
Ależ to by było zbożne :)

 

Czy Świstak będzie selekcjonował linki w niektórych branżach?

W opisie patentu zawarto korzyści jakie niesie, i dzięki którym będzie warto z niego korzystać. Jest to np. pomijanie niektórych linków w rankingach stron, do których prowadzą linki.

Główne zalety świeżo opatentowanego procesu:

  1. Wyniki wyszukiwania dla zasobów mogą być bardziej trafnie określane dzięki wykorzystaniu danych dotyczących linków do tych zasobów i kliknięć tych linków.
  2. Wynik seed (określający czy zasób będzie stanowił miernik dla wyznaczania wartości innych zasobów) może zostać określony dla zasobu i oparty na liczbie linków prowadzących do tego zasobu zawartych w innych zasobach oraz na liczbie wyborów tych linków.
  3. Zasoby źródłowe, które zawierają linki do zasobów posiadających nieproporcjonalnie dużą liczbę linków w stosunku do liczby ich wyborów, jak wskazują wyniki seed dla tych zasobów, mogą zostać zidentyfikowane i wykluczone.
  4. Linki z tych zidentyfikowanych zasobów źródłowych mogą zostać pominięte w procesie rankowania, który ustala pozycje zasobów na podstawie liczby linków odwołujących się do zasobu.
  5. Zasoby, dla których dane dotyczące linków są niedostępne lub niewystarczające, mogą zostać ocenione przy użyciu danych dotyczących zasobów, które zawierają link do ocenianego zasobu.

Wspomniany patent można znaleźć tutaj. Warto poświęcić mu nieco czasu (jeśli oczywiście nie brzydzi Was super skomplikowane, techniczne słownictwo w języku lengłydż ;)

A jeśli już o tym mowa, to poniżej „metka” patentu:

Wyznaczanie jakościowego miernika zasobu
Wynalazcy: Hyung-Jin Kim, Paul Haahr, Kien Ng, Chung Tin Kwok, Moustafa A. Hammad i Sushrut Karanjkar
Beneficjent: Google
Patent Stanów Zjednoczonych: 9,558,233
Udzielony: 31 stycznia 2017
Zgłoszony: 31 grudnia 2012
Wyciąg:
Metody, systemy i przyrządy, w tym programy komputerowe zakodowane na komputerowym nośniku pamięci, w celu wyznaczenia miernika jakości zasobu. W jednym aspekcie, metoda obejmuje określenie seed score dla każdego zasobu seed w zestawie. Wynik seed dla zasobu seed może opierać się na liczbie zasobów, które zawierają link do zasobu seed i liczbie wyborów linków. Zestaw zasobów źródłowych jest zidentyfikowany. Wynik źródłowy jest wyznaczony dla każdego zasobu źródłowego. Wynik źródłowy dla zasobu źródłowego jest oparty na wyniku seed każdego zasobu seed, do którego linkuje zasób źródłowy. Zasoby odwołujące się do źródła są zidentyfikowane. Wynik zasobu jest wyznaczany dla każdego zasobu odwołującego się do źródła. Wynik zasobu dla zasobu odwołującego się do źródła może zostać oparty na wyniku źródłowym dla każdego zasobu źródłowego, który zawiera link do zasobu odwołującego się do źródła.

Patent Google - zmiana algorytmu Świstak

knowyourmeme.com

Degradacja oparta na wysokiej liczbie linków nie dowożących ruchu

Kolejny fragment opisu patentu, który wskazuje na potencjalnie szkodliwe wyniki dla linków, które nie spełniają określonych oczekiwań:

System może wyznaczyć miernik jakości dla danego zasobu sieciowego w oparciu o liczbę innych zasobów, które linkują do danego zasobu sieciowego oraz ilość ruchu, które otrzymuje zasób. Na przykład proces rankingujący może ocenić wyżej pierwszą stronę, która posiada dużą liczbę innych stron, które do niej linkują, niż stronę, która posiada mniejszą liczbę linkujących do niej stron. Jednak może się zdarzyć tak, że do zasobu linkuje duża liczba innych zasobów, ale zyskuje on z linków niewielki ruch. Na przykład podmiot może próbować oszukać proces rankingujący poprzez umieszczenie linka do zasobu na kolejnej stronie. Tak duża liczba linków może zniekształcić ranking zasobów. Aby zapobiec takim odchyleniom, system może ocenić niedopasowanie pomiędzy liczbą linkujących zasobów i ruchem wygenerowanym dla zasobu przez linkujące zasoby. Jeśli do zasobu linkują zasoby, których liczba jest nieproporcjonalna w stosunku do ruchu, który generują dla tego zasobu, to ten zasób może zostać zdegradowany w procesie ustalania pozycji.

W jaki sposób ruch może zostać określony na podstawie linku?
Ocena zasobów może zostać wykonana za pomocą procesu pull-push (wyjście-wejście). W przykładowym procesie pull-push, wynik seed jest wyznaczany dla każdego zestawu zasobów seed, dla których dostępne są dane o linkach i ruchu. Wynik seed dla określonego zasobu seed jest oparty na liczbie zasobów źródłowych, które odwołują się do zasobu seed oraz ilości ruchu generowanego dla tego zasobu przez zasoby źródłowe. W niektórych zastosowaniach, wynik seed dla danego zasobu to stosunek liczby wyborów linków prowadzących do danego zasobu do liczby zasobów źródłowych, które linkują do danego zasobu. Tadaaa!!1
Te wyniki seed są „podciągane” do zasobów źródłowych i używane do określania wyniku źródłowego dla każdego zasobu źródłowego. W niektórych implementacjach, wynik źródłowy dla zasobu źródłowego jest oparty na wyniku seed dla każdego zasobu seed, do którego linkują zasoby źródłowe. Te wyniki źródłowe mogą zostać użyte do klasyfikacji każdego zasobu źródłowego jako zasobu kwalifikowanego lub zasobu niekwalifikowanego.
Linki z zasobów, które zostaną uznane za niekwalifikowane, mogą zostać pominięte (to najważniejsze zdanie ;)

Jak nowa zmiana ma sobie radzić ze spamem?

Niektóre branże i obszary mają tendencję do produkowania większego spamu niż inne. Patent wskazuje na jedną grupę w szczególności:

Dla przykładu, wydawcy wielu serwisów, które umożliwiają dzielenie się treściami wideo, próbują manipulować rankingami poprzez tworzenie linków do swoich serwisów, co prowadzi do nieproporcjonalnie dużej liczby linków w porównaniu z liczbą ich wyborów, podczas gdy krajowe serwisy informacyjne zwykle nie podejmują prób takiej manipulacji.
Dla zapytań, które mają tendencję do częstego generowania spamu, kliknięcia wyboru mogą otrzymać większą wartość w tej kalkulacji linków niż ruch, który te linki wygenerują:
Dla zapytań, które mają wysoką skłonność do wyciągania na powierzchnię SERPów stron powiązanych ze spamem, system może położyć większą wagę na liczbę kliknięć wyboru z wyników wyszukiwania a mniejszą wagę na liczbę linków zasobów dla wyników wyszukiwania gdy system ustala pozycję wyników.

W ten sposób, algorytm może ufać bardziej liczbie kliknięć niż liczbie linków zasobu dla zapytań, które mają skłonność do wyciągania na powierzchnię stron powiązanych ze spamem.

Wynik jakości wyboru może być oparty na parametrze „Dwell Time”, czyli parametrze obecności.

Część procesu zaangażowana w obliczanie wyniku jakościowego dla zasobów obejmuje wyznaczanie wyniku seed dla zasobu seed. Rozpoczyna się od zidentyfikowania liczby linków zasobu dla zasobu seed. Można to osiągnąć patrząc na liczbę zasobów, które zawierają link do zasobu seed.
Kolejny aspekt uwzględnia identyfikację liczby wyborów dla zasobu seed. Ta liczba wyborów dla zasobu seed może być oparta na liczbie kliknięć w linki umieszczone w innych zasobach, które to linki odwołują się do zasobu seed.
Słowem: masz poumieszczane linki do siebie na innych serwisach, a do rankowania Twojej domeny mogą być wzięte pod uwagę tylko te, w które ktoś klika.
W patencie czytamy:

Wynik jakości wyboru może być wyższy dla wyboru, który skutkuje długim czasem przebywania na stronie (np. dłuższym niż próg czasowy), niż wynik jakości wyboru dla wyboru, który skutkuje krótkim czasem obecnośni (np. krótszym niż próg czasowy). Jako że automatycznie generowane wybory linków są często krótkotrwałe, branie pod uwagę czasu przebywania na stronie w wyznaczaniu wyniku seed może rozliczać te fałszywe kliknięcia linków.

Patent mówi nam również o tym, że niektóre historycznie kliknięcia mogą wskazywać na to, że wybory linków zostały dokonane przez prawdziwych użytkowników, a nie w procesie automatycznym.
Zasoby ze stosunkowo niskim wynikiem zasobu mogą zostać zdegradowane w rankingach, a zasoby z wysokim wynikiem zasobu mogą zostać w rankingach wzmocnione.

How cool is that?

Nowy patent Google to zmiany w algorytmie

To w końcu Świstak czy tylko spekulacje?

Patent dostarcza znacznie więcej szczegółów, dlatego warto przyjrzeć się mu bliżej. Jest pierwszym, który podejmuje próbę stworzenia swego rodzaju wyników jakości dla linków, które odwołują się do stron w sieci i określenia ile mocy te linki powinny przekazać. Patent Reasonable Surfer różnił się tym, że określał jaką wagę przenosi link na podstawie prawdopodobieństwa czy był on ważny i cech odnoszących się do tego jak (i gdzie) został on zaprezentowany na stronie.
Tradycyjnie świat SEO się ożywił po artykule w serwisie Search Engine Land, w którym opisano zmiany w SERP zauważone przez szereg osób i zasugerowano też, że mogło to mieć coś wspólnego ze zmianą algorytmu Google. Czy faktycznie tak było? Czy to może Rank Brain sobie coraz lepiej radzi? Co mogło zostać wdrożone i co mogło wywołać niewątpliwe wahnięcia? Pojawiła się propozycja (tym razem wyjątkowo nie od Barrego, a od Jonathana Hochmana), żeby wdrożenie określić mianem aktualizacji algorytmu Świstaka (Groundhog Update), z racji czasu implementacji i tego, że zmiany zaczęły być widoczne na początku lutego (2 lutego w Stanach Zjednoczonych obchodzony jest Dzień Świstaka). Patent został przyznany ostatniego dnia stycznia, i co prawda mógł zostać zaimplementowany wcześniej, ale mógł też zostać wprowadzony na początku lutego.
Czy ta zmiana algorytmiczna, która miała miejsce w Google, mogła być ważeniem linkowania zasobów opartym na ruchu skorelowanym z nimi, czy też związanym, lub nie, z niskiej jakości, spamerskimi wynikami powiązanymi z zasobami? Czy to właśnie ten cały „Świstak”?

Nie ma to większego znaczenia – coś się dzieje, a jak to nazwiemy to już kwestia marketingowa.

W każdym razie u nas tradycyjnie wszystko na zielono ;)

Inspiracja: https://gofishdigital.com/did-the-groundhog-update-just-take-place-at-google/

16 komciów

  1. Coś w tym jest bo niektore blogi poleciały (ale tylko blogi). Sklepy, gdzie linki były „dobrej jakości” do bloga zyskały. Tam gdzie było dopalane mamy spadek.

    Spadki są na domenach, gdzie kiedyś stał jakis syf….

    • Łukasz Lewczuk

      |Autor

      Wieeeem :/ poprawię to w tzw. „wolnej”. Na razie tyle roboty, że nie ma kiedy taczki załadować ;) Dzięki.

  2. Potwierdzam, jeden z lepszych artykułów jakie czytałem w ostatnich 2-3 latach :)
    Ostatnio też zauważyliśmy lekkie wahania w SERPach. Strony z dobrym linkiem rankowały…

  3. Bardzo rzeczowy wpis, świetnie się go czytało. Od jakiegoś czasu obserwuje że pewne miejscówki już nie dają takiej mocy jak kiedyś… Więc jest coś na rzeczy z tymi zmianami w algorytmie. Na pewno efekt „badania ruchu” przez algorytm może namieszać w wynikach.

  4. Udało Ci się stworzyć artykuł, który działa lepiej niż poranna kawa – po przebiciu się przez te treści zawarte w patencie oczy mam już bardzo szeroko otwarte :).

    Ocena jakości, a właściwie prawdziwości/naturalności linków prędzej czy później musi stać się faktem, bo obecnie ich zdobywanie – pomimo ciągłych utrudnień – jest nadal stosunkowo proste. Jeśli jednak ograniczy się to do oceny samej klikalności, to już widzę te nowe i dostosowane do wytycznych G softy, do których będziemy importować listę adresów URL z opublikowanymi linkami i ustawiali częstotliwość kliknięć w link w ciągu doby oraz czas spędzony na witrynie docelowej…

    Później będzie należało tylko czekać na to aż RankBrain rozwinie skrzydła i uniemożliwi tego typu działania. A może to od początku będzie już w ocenie sztucznej inteligencji? Czas pokaże.

  5. U mnie też widać podobne wahania, myślę że było by ciekawie jeżeli ilość ruchu była by ważnym czynnikiem algorytmu. Jak to mówią pożyjemy, zobaczymy i wyciągniemy wnioski/

  6. W takim razie trzeba będzie przechwytywać domeny z ruchem i walić na nich graficzne banery 1000 x 500 px tak, żeby internauta, który na taką miejscówkę wejdzie, czasami nie zapomniał przeklikać się do strony właściwej.

    To współczynnik klikalności mamy już opanowany. Co z głębokością wejść?

    PS. Na podstawie jakich danych Google będzie wiedziało, że link X wewnątrz witryny klika się dobrze, a Y nie (głębokości wejść też to dotyczy)?

    Bo przecież nie każdy ma na stronie zainstalowanego tego wirusa (Google Analytics). No chyba, że wystarczy im próbka tych osób, które Analyticsa zainstalowanego mają. Może dane z Chrome?

    • O to to :) dokładnie zastanawiam się nad tym samym, odnośnie GA, które dobrze wiemy nie znajduje się na każdej stronie, podobnie z Chrome. No cóż teraz podstawową oceną decydującą czy zostawiać linkacza czy nie, będzie to czy stronka ma wpięte GA – no przecież inaczej to bez sensu ;)

    • Odnośnie przechwytywanych domen. Właśnie mam taką domenę, na której od 2 lat jest publikowana treść. Pozycje na dość konkurencyjne frazy bardzo zadowalające. Linkowanie to głównie wewnętrzne przekierowania 301, bo domena naprawdę ciekawa i szeroko linkowana wcześniej :) No i to jest właśnie jedyna moja domena, na której tak wyraźnie widać spadki w lutym.

  7. Bardzo sensowny artykuł , czegoś takiego szukałam . Od lutego wszystkie moje strony związane z turystyką poszybowały w górę bardzo wysoko na trudne frazy z czego jestem bardzo dumna .Za to strony o tematyce zdrowie , rodzina niestety spadły o 5-7 pozycji ale przyznam się że robiłam sztuczny ruch . Co zrobić żeby wróciły na swoje miejsce ? znalezienie nowych linków z dobrym ruchem wystarczy ?

  8. Podobno to jednak aktualizacja phantom. Co na to autor wpisu? Mimo wszystko, bardzo fajny materiał. Dzięki za linka do tej publikacji naukowej. Ciężko to się czyta :P

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *