Tag: Patent Google

  • Świstak, czy to ty? Czy była zmiana algorytmu Google?

    Świstak, czy to ty? Czy była zmiana algorytmu Google?

    Historia, która obiegła Search Engine Land kilka dni temu, w zestawieniu z dziwnymi wynikami na przyrządach pomiarowych SERP  rzuca światło na możliwą zmianę algorytmu Google. Tradycyjnie, każdy chce się nieco ogrzać w cieple takiego gorącego newsa. To, że Barry Schwartz posiada sporą wiedzę to jedno, a to że ma swoje małe alter ego, którym jest zapewne jednym z członków zarządu Google Inc. to inna sprawa ;) Fakt jest taki, że niestety często gawiedź powtarza za nim ślepo, traktując niekiedy jego informacje jako „te od Google” – a takowymi nie są. Przyjrzyjmy się zatem zmianie algo o nazwie „Świstak”, która być może jest niczym innym jak uzewnętrznieniem czyichś fantazji, wszak wciąż nie została potwierdzona przez Wyszukiwarkę. Co ciekawe, zanim wiadomość stała się popularna, pojawiła się informacja o nowym patencie Google. I to dopiero jest news!

    Czy nowy patent Google to właśnie aktualizacja Świstak?

     

    Zmiana algorytmu Google - Świstak
    źródło: quickmeme.com

     

    Patent został przyznany 31 stycznia 2017 i bardzo możliwe, że to, co zostało w nim opisane to dokładnie to, co ludzie zgłaszali jako „aktualizacja algorytmu” w notce Search Engine Land.
    Algorytm, który stoi za nowym patentem Google, opiera się na rankingach uwzględniających liczbę zasobów linkujących do źródła, które ma być ocenione (jak w patencie PageRank Stanforda). Historycznie rzecz biorąc, w Google, strona, która posiada wiele zasobów do niej linkujących może zajmować wyższą pozycję niż inne strony, które tych linkujących zasobów mają mniej (co jest oczywiste i zawsze było). To się nazywa profil linkowy domeny i niektórzy uważają, że to wciąż 70% Twojego sukcesu ;) A reszta jest jedynie dopełnieniem. Ale co, jeśli Google postanowiło przyjrzeć się bliżej tym zasobom i zmniejszyć trochę siłę rankingową, którą przekazują linki? Mogliśmy zauważyć oznaki podobnego działania w ramach patentu Reasonable Surfer, który zawierał linki przekazujące różne ilości PageRanku. Innym sposobem zmiany tego, ile PageRanku może zostać przekazane przez link, może być ocenianie ilości ruchu, który strona może otrzymać dzięki linkom i ilości czasu, który użytkownicy z tych linków spędzą na stronie, czy będą to krótkie, średnie czy długie odesłania.

    Ale zaraz… przecież PageRank kaput; geszlosen!

    No właśnie raczej nie. Owszem, oficjalnie Googlowy PageRank został wyłączony. Ale c’moooon… jak można wyłączyć coś, co jest kręgosłupem algorytmu :) Algorytm Google powstał na PageRanku. Od tego się zaczęło, że wzór na PR został „obudowany” dodatkowymi funkcjami. Nie można go tak po prosto wyłączyć. Można go za to ukryć. I to, w naszej ocenie miało miejsce. PR jest, działa, ma się świetnie – ale możliwość jego sprawdzenia została ukryta, aby „paczki mocnych linków PR5-10” nie pojawiały się na różnych e-bazarkach ;) Zwyczajnie możliwość manipulacji tym parametrem została ludziom odcięta.

    Wróćmy jednak do zmiany w algo…
    Podejście do linkowania może również uwzględniać inne aspekty linków, takie jak np. anchor text dla linku odwołującego się do zasobu źródłowego, który z kolei uzna go za tzw. n-gram i przypisze anchorowi punkty źródłowe nadające ranking. Brzmi tajemniczo, ale takie nie jest – generalnie jeśli podlinkujesz na „opony” swój sklep z oponami (prościzna, jeden link powinien wystarczyć;), to będzie to miało większą moc sprawczą, aniżeli link prowadzący do Twojego kramiku na frazę „strona główna„.
    A tu macie interesujące oświadczenie, które można przeczytać w nowo przyznanym patencie:

    Rankingi wyników wyszukiwania mogą być regulowane na podstawie skłonności zapytania do wyciągania w wynikach wyszukiwania tych pozycji, które są powiązane ze spamem. Waga zliczonych linków zasobu, w procesie ustalania pozycji, może zostać zredukowana dla zapytań, które mają wysoką tendencję do wyciągania na powierzchnię SERP powiązanych ze spamem wyników wyszukiwania, po to, aby zmniejszyć wypaczenie rankingu zasobów spowodowane zasobami, które posiadają nieproporcjonalnie dużą liczbę linków w porównaniu z liczbą wyboru tych linków.

    Poniżej zaś tłumaczenie na ludzki:

    Są branże i obszary, gdzie żeby się wybić w SERP trzeba „przypalić” profil linkowy automatem i dużo sajtów tak robi. W tych branżach i obszarach Big G potencjalnie chce zwracać mniejszą uwagę na profile linkowe, żeby nie serwować użytkownikowi stron „wypozycjonowanych” w sztuczny sposób.
    Ależ to by było zbożne :)

     

    Czy Świstak będzie selekcjonował linki w niektórych branżach?

    W opisie patentu zawarto korzyści jakie niesie, i dzięki którym będzie warto z niego korzystać. Jest to np. pomijanie niektórych linków w rankingach stron, do których prowadzą linki.

    Główne zalety świeżo opatentowanego procesu:

    1. Wyniki wyszukiwania dla zasobów mogą być bardziej trafnie określane dzięki wykorzystaniu danych dotyczących linków do tych zasobów i kliknięć tych linków.
    2. Wynik seed (określający czy zasób będzie stanowił miernik dla wyznaczania wartości innych zasobów) może zostać określony dla zasobu i oparty na liczbie linków prowadzących do tego zasobu zawartych w innych zasobach oraz na liczbie wyborów tych linków.
    3. Zasoby źródłowe, które zawierają linki do zasobów posiadających nieproporcjonalnie dużą liczbę linków w stosunku do liczby ich wyborów, jak wskazują wyniki seed dla tych zasobów, mogą zostać zidentyfikowane i wykluczone.
    4. Linki z tych zidentyfikowanych zasobów źródłowych mogą zostać pominięte w procesie rankowania, który ustala pozycje zasobów na podstawie liczby linków odwołujących się do zasobu.
    5. Zasoby, dla których dane dotyczące linków są niedostępne lub niewystarczające, mogą zostać ocenione przy użyciu danych dotyczących zasobów, które zawierają link do ocenianego zasobu.

    Wspomniany patent można znaleźć tutaj. Warto poświęcić mu nieco czasu (jeśli oczywiście nie brzydzi Was super skomplikowane, techniczne słownictwo w języku lengłydż ;)

    A jeśli już o tym mowa, to poniżej „metka” patentu:

    Wyznaczanie jakościowego miernika zasobu
    Wynalazcy: Hyung-Jin Kim, Paul Haahr, Kien Ng, Chung Tin Kwok, Moustafa A. Hammad i Sushrut Karanjkar
    Beneficjent: Google
    Patent Stanów Zjednoczonych: 9,558,233
    Udzielony: 31 stycznia 2017
    Zgłoszony: 31 grudnia 2012
    Wyciąg:
    Metody, systemy i przyrządy, w tym programy komputerowe zakodowane na komputerowym nośniku pamięci, w celu wyznaczenia miernika jakości zasobu. W jednym aspekcie, metoda obejmuje określenie seed score dla każdego zasobu seed w zestawie. Wynik seed dla zasobu seed może opierać się na liczbie zasobów, które zawierają link do zasobu seed i liczbie wyborów linków. Zestaw zasobów źródłowych jest zidentyfikowany. Wynik źródłowy jest wyznaczony dla każdego zasobu źródłowego. Wynik źródłowy dla zasobu źródłowego jest oparty na wyniku seed każdego zasobu seed, do którego linkuje zasób źródłowy. Zasoby odwołujące się do źródła są zidentyfikowane. Wynik zasobu jest wyznaczany dla każdego zasobu odwołującego się do źródła. Wynik zasobu dla zasobu odwołującego się do źródła może zostać oparty na wyniku źródłowym dla każdego zasobu źródłowego, który zawiera link do zasobu odwołującego się do źródła.

    Patent Google - zmiana algorytmu Świstak
    knowyourmeme.com

    Degradacja oparta na wysokiej liczbie linków nie dowożących ruchu

    Kolejny fragment opisu patentu, który wskazuje na potencjalnie szkodliwe wyniki dla linków, które nie spełniają określonych oczekiwań:

    System może wyznaczyć miernik jakości dla danego zasobu sieciowego w oparciu o liczbę innych zasobów, które linkują do danego zasobu sieciowego oraz ilość ruchu, które otrzymuje zasób. Na przykład proces rankingujący może ocenić wyżej pierwszą stronę, która posiada dużą liczbę innych stron, które do niej linkują, niż stronę, która posiada mniejszą liczbę linkujących do niej stron. Jednak może się zdarzyć tak, że do zasobu linkuje duża liczba innych zasobów, ale zyskuje on z linków niewielki ruch. Na przykład podmiot może próbować oszukać proces rankingujący poprzez umieszczenie linka do zasobu na kolejnej stronie. Tak duża liczba linków może zniekształcić ranking zasobów. Aby zapobiec takim odchyleniom, system może ocenić niedopasowanie pomiędzy liczbą linkujących zasobów i ruchem wygenerowanym dla zasobu przez linkujące zasoby. Jeśli do zasobu linkują zasoby, których liczba jest nieproporcjonalna w stosunku do ruchu, który generują dla tego zasobu, to ten zasób może zostać zdegradowany w procesie ustalania pozycji.

    W jaki sposób ruch może zostać określony na podstawie linku?
    Ocena zasobów może zostać wykonana za pomocą procesu pull-push (wyjście-wejście). W przykładowym procesie pull-push, wynik seed jest wyznaczany dla każdego zestawu zasobów seed, dla których dostępne są dane o linkach i ruchu. Wynik seed dla określonego zasobu seed jest oparty na liczbie zasobów źródłowych, które odwołują się do zasobu seed oraz ilości ruchu generowanego dla tego zasobu przez zasoby źródłowe. W niektórych zastosowaniach, wynik seed dla danego zasobu to stosunek liczby wyborów linków prowadzących do danego zasobu do liczby zasobów źródłowych, które linkują do danego zasobu. Tadaaa!!1
    Te wyniki seed są „podciągane” do zasobów źródłowych i używane do określania wyniku źródłowego dla każdego zasobu źródłowego. W niektórych implementacjach, wynik źródłowy dla zasobu źródłowego jest oparty na wyniku seed dla każdego zasobu seed, do którego linkują zasoby źródłowe. Te wyniki źródłowe mogą zostać użyte do klasyfikacji każdego zasobu źródłowego jako zasobu kwalifikowanego lub zasobu niekwalifikowanego.
    Linki z zasobów, które zostaną uznane za niekwalifikowane, mogą zostać pominięte (to najważniejsze zdanie ;)

    Jak nowa zmiana ma sobie radzić ze spamem?

    Niektóre branże i obszary mają tendencję do produkowania większego spamu niż inne. Patent wskazuje na jedną grupę w szczególności:

    Dla przykładu, wydawcy wielu serwisów, które umożliwiają dzielenie się treściami wideo, próbują manipulować rankingami poprzez tworzenie linków do swoich serwisów, co prowadzi do nieproporcjonalnie dużej liczby linków w porównaniu z liczbą ich wyborów, podczas gdy krajowe serwisy informacyjne zwykle nie podejmują prób takiej manipulacji.
    Dla zapytań, które mają tendencję do częstego generowania spamu, kliknięcia wyboru mogą otrzymać większą wartość w tej kalkulacji linków niż ruch, który te linki wygenerują:
    Dla zapytań, które mają wysoką skłonność do wyciągania na powierzchnię SERPów stron powiązanych ze spamem, system może położyć większą wagę na liczbę kliknięć wyboru z wyników wyszukiwania a mniejszą wagę na liczbę linków zasobów dla wyników wyszukiwania gdy system ustala pozycję wyników.

    W ten sposób, algorytm może ufać bardziej liczbie kliknięć niż liczbie linków zasobu dla zapytań, które mają skłonność do wyciągania na powierzchnię stron powiązanych ze spamem.

    Wynik jakości wyboru może być oparty na parametrze „Dwell Time”, czyli parametrze obecności.

    Część procesu zaangażowana w obliczanie wyniku jakościowego dla zasobów obejmuje wyznaczanie wyniku seed dla zasobu seed. Rozpoczyna się od zidentyfikowania liczby linków zasobu dla zasobu seed. Można to osiągnąć patrząc na liczbę zasobów, które zawierają link do zasobu seed.
    Kolejny aspekt uwzględnia identyfikację liczby wyborów dla zasobu seed. Ta liczba wyborów dla zasobu seed może być oparta na liczbie kliknięć w linki umieszczone w innych zasobach, które to linki odwołują się do zasobu seed.
    Słowem: masz poumieszczane linki do siebie na innych serwisach, a do rankowania Twojej domeny mogą być wzięte pod uwagę tylko te, w które ktoś klika.
    W patencie czytamy:

    Wynik jakości wyboru może być wyższy dla wyboru, który skutkuje długim czasem przebywania na stronie (np. dłuższym niż próg czasowy), niż wynik jakości wyboru dla wyboru, który skutkuje krótkim czasem obecnośni (np. krótszym niż próg czasowy). Jako że automatycznie generowane wybory linków są często krótkotrwałe, branie pod uwagę czasu przebywania na stronie w wyznaczaniu wyniku seed może rozliczać te fałszywe kliknięcia linków.

    Patent mówi nam również o tym, że niektóre historycznie kliknięcia mogą wskazywać na to, że wybory linków zostały dokonane przez prawdziwych użytkowników, a nie w procesie automatycznym.
    Zasoby ze stosunkowo niskim wynikiem zasobu mogą zostać zdegradowane w rankingach, a zasoby z wysokim wynikiem zasobu mogą zostać w rankingach wzmocnione.

    How cool is that?

    Nowy patent Google to zmiany w algorytmie

    To w końcu Świstak czy tylko spekulacje?

    Patent dostarcza znacznie więcej szczegółów, dlatego warto przyjrzeć się mu bliżej. Jest pierwszym, który podejmuje próbę stworzenia swego rodzaju wyników jakości dla linków, które odwołują się do stron w sieci i określenia ile mocy te linki powinny przekazać. Patent Reasonable Surfer różnił się tym, że określał jaką wagę przenosi link na podstawie prawdopodobieństwa czy był on ważny i cech odnoszących się do tego jak (i gdzie) został on zaprezentowany na stronie.
    Tradycyjnie świat SEO się ożywił po artykule w serwisie Search Engine Land, w którym opisano zmiany w SERP zauważone przez szereg osób i zasugerowano też, że mogło to mieć coś wspólnego ze zmianą algorytmu Google. Czy faktycznie tak było? Czy to może Rank Brain sobie coraz lepiej radzi? Co mogło zostać wdrożone i co mogło wywołać niewątpliwe wahnięcia? Pojawiła się propozycja (tym razem wyjątkowo nie od Barrego, a od Jonathana Hochmana), żeby wdrożenie określić mianem aktualizacji algorytmu Świstaka (Groundhog Update), z racji czasu implementacji i tego, że zmiany zaczęły być widoczne na początku lutego (2 lutego w Stanach Zjednoczonych obchodzony jest Dzień Świstaka). Patent został przyznany ostatniego dnia stycznia, i co prawda mógł zostać zaimplementowany wcześniej, ale mógł też zostać wprowadzony na początku lutego.
    Czy ta zmiana algorytmiczna, która miała miejsce w Google, mogła być ważeniem linkowania zasobów opartym na ruchu skorelowanym z nimi, czy też związanym, lub nie, z niskiej jakości, spamerskimi wynikami powiązanymi z zasobami? Czy to właśnie ten cały „Świstak”?

    Nie ma to większego znaczenia – coś się dzieje, a jak to nazwiemy to już kwestia marketingowa.

    W każdym razie u nas tradycyjnie wszystko na zielono ;)

    Inspiracja: https://gofishdigital.com/did-the-groundhog-update-just-take-place-at-google/