Blog

  • Świstak, czy to ty? Czy była zmiana algorytmu Google?

    Świstak, czy to ty? Czy była zmiana algorytmu Google?

    Historia, która obiegła Search Engine Land kilka dni temu, w zestawieniu z dziwnymi wynikami na przyrządach pomiarowych SERP  rzuca światło na możliwą zmianę algorytmu Google. Tradycyjnie, każdy chce się nieco ogrzać w cieple takiego gorącego newsa. To, że Barry Schwartz posiada sporą wiedzę to jedno, a to że ma swoje małe alter ego, którym jest zapewne jednym z członków zarządu Google Inc. to inna sprawa ;) Fakt jest taki, że niestety często gawiedź powtarza za nim ślepo, traktując niekiedy jego informacje jako „te od Google” – a takowymi nie są. Przyjrzyjmy się zatem zmianie algo o nazwie „Świstak”, która być może jest niczym innym jak uzewnętrznieniem czyichś fantazji, wszak wciąż nie została potwierdzona przez Wyszukiwarkę. Co ciekawe, zanim wiadomość stała się popularna, pojawiła się informacja o nowym patencie Google. I to dopiero jest news!

    Czy nowy patent Google to właśnie aktualizacja Świstak?

     

    Zmiana algorytmu Google - Świstak
    źródło: quickmeme.com

     

    Patent został przyznany 31 stycznia 2017 i bardzo możliwe, że to, co zostało w nim opisane to dokładnie to, co ludzie zgłaszali jako „aktualizacja algorytmu” w notce Search Engine Land.
    Algorytm, który stoi za nowym patentem Google, opiera się na rankingach uwzględniających liczbę zasobów linkujących do źródła, które ma być ocenione (jak w patencie PageRank Stanforda). Historycznie rzecz biorąc, w Google, strona, która posiada wiele zasobów do niej linkujących może zajmować wyższą pozycję niż inne strony, które tych linkujących zasobów mają mniej (co jest oczywiste i zawsze było). To się nazywa profil linkowy domeny i niektórzy uważają, że to wciąż 70% Twojego sukcesu ;) A reszta jest jedynie dopełnieniem. Ale co, jeśli Google postanowiło przyjrzeć się bliżej tym zasobom i zmniejszyć trochę siłę rankingową, którą przekazują linki? Mogliśmy zauważyć oznaki podobnego działania w ramach patentu Reasonable Surfer, który zawierał linki przekazujące różne ilości PageRanku. Innym sposobem zmiany tego, ile PageRanku może zostać przekazane przez link, może być ocenianie ilości ruchu, który strona może otrzymać dzięki linkom i ilości czasu, który użytkownicy z tych linków spędzą na stronie, czy będą to krótkie, średnie czy długie odesłania.

    Ale zaraz… przecież PageRank kaput; geszlosen!

    No właśnie raczej nie. Owszem, oficjalnie Googlowy PageRank został wyłączony. Ale c’moooon… jak można wyłączyć coś, co jest kręgosłupem algorytmu :) Algorytm Google powstał na PageRanku. Od tego się zaczęło, że wzór na PR został „obudowany” dodatkowymi funkcjami. Nie można go tak po prosto wyłączyć. Można go za to ukryć. I to, w naszej ocenie miało miejsce. PR jest, działa, ma się świetnie – ale możliwość jego sprawdzenia została ukryta, aby „paczki mocnych linków PR5-10” nie pojawiały się na różnych e-bazarkach ;) Zwyczajnie możliwość manipulacji tym parametrem została ludziom odcięta.

    Wróćmy jednak do zmiany w algo…
    Podejście do linkowania może również uwzględniać inne aspekty linków, takie jak np. anchor text dla linku odwołującego się do zasobu źródłowego, który z kolei uzna go za tzw. n-gram i przypisze anchorowi punkty źródłowe nadające ranking. Brzmi tajemniczo, ale takie nie jest – generalnie jeśli podlinkujesz na „opony” swój sklep z oponami (prościzna, jeden link powinien wystarczyć;), to będzie to miało większą moc sprawczą, aniżeli link prowadzący do Twojego kramiku na frazę „strona główna„.
    A tu macie interesujące oświadczenie, które można przeczytać w nowo przyznanym patencie:

    Rankingi wyników wyszukiwania mogą być regulowane na podstawie skłonności zapytania do wyciągania w wynikach wyszukiwania tych pozycji, które są powiązane ze spamem. Waga zliczonych linków zasobu, w procesie ustalania pozycji, może zostać zredukowana dla zapytań, które mają wysoką tendencję do wyciągania na powierzchnię SERP powiązanych ze spamem wyników wyszukiwania, po to, aby zmniejszyć wypaczenie rankingu zasobów spowodowane zasobami, które posiadają nieproporcjonalnie dużą liczbę linków w porównaniu z liczbą wyboru tych linków.

    Poniżej zaś tłumaczenie na ludzki:

    Są branże i obszary, gdzie żeby się wybić w SERP trzeba „przypalić” profil linkowy automatem i dużo sajtów tak robi. W tych branżach i obszarach Big G potencjalnie chce zwracać mniejszą uwagę na profile linkowe, żeby nie serwować użytkownikowi stron „wypozycjonowanych” w sztuczny sposób.
    Ależ to by było zbożne :)

     

    Czy Świstak będzie selekcjonował linki w niektórych branżach?

    W opisie patentu zawarto korzyści jakie niesie, i dzięki którym będzie warto z niego korzystać. Jest to np. pomijanie niektórych linków w rankingach stron, do których prowadzą linki.

    Główne zalety świeżo opatentowanego procesu:

    1. Wyniki wyszukiwania dla zasobów mogą być bardziej trafnie określane dzięki wykorzystaniu danych dotyczących linków do tych zasobów i kliknięć tych linków.
    2. Wynik seed (określający czy zasób będzie stanowił miernik dla wyznaczania wartości innych zasobów) może zostać określony dla zasobu i oparty na liczbie linków prowadzących do tego zasobu zawartych w innych zasobach oraz na liczbie wyborów tych linków.
    3. Zasoby źródłowe, które zawierają linki do zasobów posiadających nieproporcjonalnie dużą liczbę linków w stosunku do liczby ich wyborów, jak wskazują wyniki seed dla tych zasobów, mogą zostać zidentyfikowane i wykluczone.
    4. Linki z tych zidentyfikowanych zasobów źródłowych mogą zostać pominięte w procesie rankowania, który ustala pozycje zasobów na podstawie liczby linków odwołujących się do zasobu.
    5. Zasoby, dla których dane dotyczące linków są niedostępne lub niewystarczające, mogą zostać ocenione przy użyciu danych dotyczących zasobów, które zawierają link do ocenianego zasobu.

    Wspomniany patent można znaleźć tutaj. Warto poświęcić mu nieco czasu (jeśli oczywiście nie brzydzi Was super skomplikowane, techniczne słownictwo w języku lengłydż ;)

    A jeśli już o tym mowa, to poniżej „metka” patentu:

    Wyznaczanie jakościowego miernika zasobu
    Wynalazcy: Hyung-Jin Kim, Paul Haahr, Kien Ng, Chung Tin Kwok, Moustafa A. Hammad i Sushrut Karanjkar
    Beneficjent: Google
    Patent Stanów Zjednoczonych: 9,558,233
    Udzielony: 31 stycznia 2017
    Zgłoszony: 31 grudnia 2012
    Wyciąg:
    Metody, systemy i przyrządy, w tym programy komputerowe zakodowane na komputerowym nośniku pamięci, w celu wyznaczenia miernika jakości zasobu. W jednym aspekcie, metoda obejmuje określenie seed score dla każdego zasobu seed w zestawie. Wynik seed dla zasobu seed może opierać się na liczbie zasobów, które zawierają link do zasobu seed i liczbie wyborów linków. Zestaw zasobów źródłowych jest zidentyfikowany. Wynik źródłowy jest wyznaczony dla każdego zasobu źródłowego. Wynik źródłowy dla zasobu źródłowego jest oparty na wyniku seed każdego zasobu seed, do którego linkuje zasób źródłowy. Zasoby odwołujące się do źródła są zidentyfikowane. Wynik zasobu jest wyznaczany dla każdego zasobu odwołującego się do źródła. Wynik zasobu dla zasobu odwołującego się do źródła może zostać oparty na wyniku źródłowym dla każdego zasobu źródłowego, który zawiera link do zasobu odwołującego się do źródła.

    Patent Google - zmiana algorytmu Świstak
    knowyourmeme.com

    Degradacja oparta na wysokiej liczbie linków nie dowożących ruchu

    Kolejny fragment opisu patentu, który wskazuje na potencjalnie szkodliwe wyniki dla linków, które nie spełniają określonych oczekiwań:

    System może wyznaczyć miernik jakości dla danego zasobu sieciowego w oparciu o liczbę innych zasobów, które linkują do danego zasobu sieciowego oraz ilość ruchu, które otrzymuje zasób. Na przykład proces rankingujący może ocenić wyżej pierwszą stronę, która posiada dużą liczbę innych stron, które do niej linkują, niż stronę, która posiada mniejszą liczbę linkujących do niej stron. Jednak może się zdarzyć tak, że do zasobu linkuje duża liczba innych zasobów, ale zyskuje on z linków niewielki ruch. Na przykład podmiot może próbować oszukać proces rankingujący poprzez umieszczenie linka do zasobu na kolejnej stronie. Tak duża liczba linków może zniekształcić ranking zasobów. Aby zapobiec takim odchyleniom, system może ocenić niedopasowanie pomiędzy liczbą linkujących zasobów i ruchem wygenerowanym dla zasobu przez linkujące zasoby. Jeśli do zasobu linkują zasoby, których liczba jest nieproporcjonalna w stosunku do ruchu, który generują dla tego zasobu, to ten zasób może zostać zdegradowany w procesie ustalania pozycji.

    W jaki sposób ruch może zostać określony na podstawie linku?
    Ocena zasobów może zostać wykonana za pomocą procesu pull-push (wyjście-wejście). W przykładowym procesie pull-push, wynik seed jest wyznaczany dla każdego zestawu zasobów seed, dla których dostępne są dane o linkach i ruchu. Wynik seed dla określonego zasobu seed jest oparty na liczbie zasobów źródłowych, które odwołują się do zasobu seed oraz ilości ruchu generowanego dla tego zasobu przez zasoby źródłowe. W niektórych zastosowaniach, wynik seed dla danego zasobu to stosunek liczby wyborów linków prowadzących do danego zasobu do liczby zasobów źródłowych, które linkują do danego zasobu. Tadaaa!!1
    Te wyniki seed są „podciągane” do zasobów źródłowych i używane do określania wyniku źródłowego dla każdego zasobu źródłowego. W niektórych implementacjach, wynik źródłowy dla zasobu źródłowego jest oparty na wyniku seed dla każdego zasobu seed, do którego linkują zasoby źródłowe. Te wyniki źródłowe mogą zostać użyte do klasyfikacji każdego zasobu źródłowego jako zasobu kwalifikowanego lub zasobu niekwalifikowanego.
    Linki z zasobów, które zostaną uznane za niekwalifikowane, mogą zostać pominięte (to najważniejsze zdanie ;)

    Jak nowa zmiana ma sobie radzić ze spamem?

    Niektóre branże i obszary mają tendencję do produkowania większego spamu niż inne. Patent wskazuje na jedną grupę w szczególności:

    Dla przykładu, wydawcy wielu serwisów, które umożliwiają dzielenie się treściami wideo, próbują manipulować rankingami poprzez tworzenie linków do swoich serwisów, co prowadzi do nieproporcjonalnie dużej liczby linków w porównaniu z liczbą ich wyborów, podczas gdy krajowe serwisy informacyjne zwykle nie podejmują prób takiej manipulacji.
    Dla zapytań, które mają tendencję do częstego generowania spamu, kliknięcia wyboru mogą otrzymać większą wartość w tej kalkulacji linków niż ruch, który te linki wygenerują:
    Dla zapytań, które mają wysoką skłonność do wyciągania na powierzchnię SERPów stron powiązanych ze spamem, system może położyć większą wagę na liczbę kliknięć wyboru z wyników wyszukiwania a mniejszą wagę na liczbę linków zasobów dla wyników wyszukiwania gdy system ustala pozycję wyników.

    W ten sposób, algorytm może ufać bardziej liczbie kliknięć niż liczbie linków zasobu dla zapytań, które mają skłonność do wyciągania na powierzchnię stron powiązanych ze spamem.

    Wynik jakości wyboru może być oparty na parametrze „Dwell Time”, czyli parametrze obecności.

    Część procesu zaangażowana w obliczanie wyniku jakościowego dla zasobów obejmuje wyznaczanie wyniku seed dla zasobu seed. Rozpoczyna się od zidentyfikowania liczby linków zasobu dla zasobu seed. Można to osiągnąć patrząc na liczbę zasobów, które zawierają link do zasobu seed.
    Kolejny aspekt uwzględnia identyfikację liczby wyborów dla zasobu seed. Ta liczba wyborów dla zasobu seed może być oparta na liczbie kliknięć w linki umieszczone w innych zasobach, które to linki odwołują się do zasobu seed.
    Słowem: masz poumieszczane linki do siebie na innych serwisach, a do rankowania Twojej domeny mogą być wzięte pod uwagę tylko te, w które ktoś klika.
    W patencie czytamy:

    Wynik jakości wyboru może być wyższy dla wyboru, który skutkuje długim czasem przebywania na stronie (np. dłuższym niż próg czasowy), niż wynik jakości wyboru dla wyboru, który skutkuje krótkim czasem obecnośni (np. krótszym niż próg czasowy). Jako że automatycznie generowane wybory linków są często krótkotrwałe, branie pod uwagę czasu przebywania na stronie w wyznaczaniu wyniku seed może rozliczać te fałszywe kliknięcia linków.

    Patent mówi nam również o tym, że niektóre historycznie kliknięcia mogą wskazywać na to, że wybory linków zostały dokonane przez prawdziwych użytkowników, a nie w procesie automatycznym.
    Zasoby ze stosunkowo niskim wynikiem zasobu mogą zostać zdegradowane w rankingach, a zasoby z wysokim wynikiem zasobu mogą zostać w rankingach wzmocnione.

    How cool is that?

    Nowy patent Google to zmiany w algorytmie

    To w końcu Świstak czy tylko spekulacje?

    Patent dostarcza znacznie więcej szczegółów, dlatego warto przyjrzeć się mu bliżej. Jest pierwszym, który podejmuje próbę stworzenia swego rodzaju wyników jakości dla linków, które odwołują się do stron w sieci i określenia ile mocy te linki powinny przekazać. Patent Reasonable Surfer różnił się tym, że określał jaką wagę przenosi link na podstawie prawdopodobieństwa czy był on ważny i cech odnoszących się do tego jak (i gdzie) został on zaprezentowany na stronie.
    Tradycyjnie świat SEO się ożywił po artykule w serwisie Search Engine Land, w którym opisano zmiany w SERP zauważone przez szereg osób i zasugerowano też, że mogło to mieć coś wspólnego ze zmianą algorytmu Google. Czy faktycznie tak było? Czy to może Rank Brain sobie coraz lepiej radzi? Co mogło zostać wdrożone i co mogło wywołać niewątpliwe wahnięcia? Pojawiła się propozycja (tym razem wyjątkowo nie od Barrego, a od Jonathana Hochmana), żeby wdrożenie określić mianem aktualizacji algorytmu Świstaka (Groundhog Update), z racji czasu implementacji i tego, że zmiany zaczęły być widoczne na początku lutego (2 lutego w Stanach Zjednoczonych obchodzony jest Dzień Świstaka). Patent został przyznany ostatniego dnia stycznia, i co prawda mógł zostać zaimplementowany wcześniej, ale mógł też zostać wprowadzony na początku lutego.
    Czy ta zmiana algorytmiczna, która miała miejsce w Google, mogła być ważeniem linkowania zasobów opartym na ruchu skorelowanym z nimi, czy też związanym, lub nie, z niskiej jakości, spamerskimi wynikami powiązanymi z zasobami? Czy to właśnie ten cały „Świstak”?

    Nie ma to większego znaczenia – coś się dzieje, a jak to nazwiemy to już kwestia marketingowa.

    W każdym razie u nas tradycyjnie wszystko na zielono ;)

    Inspiracja: https://gofishdigital.com/did-the-groundhog-update-just-take-place-at-google/
  • Co to jest Crawl Budget, czyli budżet indeksowania witryny w Google

    Co to jest Crawl Budget, czyli budżet indeksowania witryny w Google

    Crawl Budget to nic innego jak budżet indeksowania witryny, czyli maksymalna liczba stron, które Google może zaindeksować pod Twoją domeną. To potencjał Twojego serwisu w wyszukiwarce – jeśli posiadasz duży sajt z wieloma podstronami, upewnij się że jest zoptymalizowany i wszystkie podstrony znajdują się w indeksie wyszukiwarki.

     

    No, to tyle info pod Knowledge Grapgh, a teraz do rzeczy i będzie ciekawie ;)

    W świecie SEO pojawiło się ostatnio wiele definicji pojęcia „crawl budget” (można je spróbować przetłumaczyć roboczo jako budżet indeksowania witryny). Jak przyznaje Google, nie ma jednak jednego uniwersalnego określenia, które w całości opisywałoby czym crawl budget jest w rzeczywistości. Big G na swoim oficjalnym blogu postanowił nieco doprecyzować termin i przedstawić to, co w jego zakresie posiada oraz co crawl budget znaczy dla Googlebota.

     

    Co to jest ten Crawl Budget zatem?

    Najsamprzód ważny komunikat: chill the f*ck out ;) – większość posiadaczy stron w ogóle nie musi przejmować się tym zjawiskiem. This is for PROs!!1
    Jeśli witryna ma zostać zaindeksowana tego samego dnia, w którym została opublikowana, webmasterzy nie muszą w ogóle skupiać się na całym tym „budżecie indeksowania”. Podobnie, gdy strona posiada mniej niż kilka tysięcy adresów URL – będzie indeksowania sprawnie, pod warunkiem że została stworzona w sposób w ogóle umożliwiający indeksację (tu z pomocą przychodzi optymalizacja SEO). Ustalanie, co indeksować, kiedy i ile zasobów serwera przydzielić na indeksowanie jest istotne dla dużych witryn lub takich, które automatycznie generują strony w oparciu o parametry URL, czyli np. wyniki wyszukiwania, treść dynamiczna i inne, „ruchome” zasoby.

    Crawl Budget posiada limit współczynnika indeksacji

    Googlebot został zaprogramowany tak, aby być porządnym obywatelem sieci. Indeksowanie jest jego najważniejszym zadaniem, ale musi je wypełniać nie wpływając negatywnie na doświadczenia użytkowników odwiedzających witrynę. Tym dla Google jest właśnie crawl rate limit czyli limit współczynnika indeksacji, który ogranicza maksymalną liczbę pobrań dla danej strony. Innymi słowy, oznacza on liczbę jednoczesnych połączeń równoległych, które Googlebot może użyć do crawlowania witryny, jak również czas oczekiwania pomiędzy kolejnymi pobraniami.

    Współczynnik indeksacji może wzrosnąć lub zmaleć w związku z kilkoma czynnikami:

    • Crawl health – czyli tzw. poprawność/zdrowie indeksowania – jeśli witryna odpowiada szybko, limit się zwiększa, oznacza to, że Googlebot może nawiązać więcej połączeń, które posłużą do indeksowania. Jeśli strona spowalnia lub odpowiada błędami serwera, limit się zmniejsza – Googlebot indeksuje mniej. As simple as that :)
    • Limit ustawiony w Google Search Console (opisany o tu, o) – właściciele witryn mogą ograniczyć indeksowanie swoich stron. Należy pamiętać, że zwiększenie limitów nie zwiększa automatycznie indeksowania (czyli nie działa to w druga stronę – możemy jeno zmniejszyć, ale nie podkręcić. Nie ma tak dobrze.)

    Żądanie i wymuszanie indeksowania

    Nawet gdy limit współczynnika indeksowania nie został osiągnięty, jeśli nie ma żądania indeksowania, nie będzie też żadnej aktywności ze strony Googlebota. Istnieją dwa główne czynniki, które determinują „crawl demand” – jak określa to Google:

    • Popularność – URLe, które są bardziej popularne w sieci są crawlowane częściej, wszystko po to, aby dane zawarte na stronach były w indeksie Google jak najświeższe.
    • Zastój – systemy Google starają się unikać sytuacji, w której w indeksie znajdują się zleżałe, nieaktualne URLe.

    Dodatkowo, zdarzenia, które obejmują całą witrynę, jak np. przenoszenie strony, mogą wywołać wzrost żądania indeksowania w celu reindeksacji zawartości witryny pod nowymi adresami URL. To też dobra praktyka w takich sytuacjach. Wspólnie crawl rate i crawl demand, czyli współczynnik indeksowania i żądanie indeksowania określają crawl budget czyli budżet indeksowania witryny, co z kolei można zdefiniować jako liczbę URLi, które Googlebot może i chce indeksować.

    Czynniki, które wpływają na budżet indeksowania

    Zgodnie z analizami Google, dużo niskiej jakości URLi na stronie może wpłynąć na pogorszenie crawlowania i indeksowania witryny. Niskiej jakości URLe kwalifikują się do poniższych kategorii (zgodnie z ich wagą/rangą):

    Marnowanie zasobów serwera na strony z powyższych kategorii odciągnie aktywność Googlebota od stron, które faktycznie są wysokiej jakości. Może to spowodować poważne opóźnienie w dotarciu użytkowników do wartościowych treści na stronie. Czyli po raz kolejny widzimy jak ważne jest eliminowanie podstawowych błędów w procesie optymalizacji technicznej witryny.

    Crawl budget FAQ

    Crawlowanie jest punktem wyjścia dla stron w wyszukiwarce Google. Sprawne poruszanie się Googlebota po stronie pomaga w indeksowaniu witryny w Google. Ale że proces nie dla wszystkich jest zrozumiały i transparentny, oto kilka podstawowych pytań i odpowiedzi z tej dziedziny, które pojawiły się na oficjalnym blogasie Google:

     

    Pytanie: Czy szybkość witryny (page speed) wpływa na budżet indeksowania mojej strony? Jaki wpływ mają błędy?
    Odpowiedź: Szybsza strona oznacza lepsze doświadczenie użytkowników odwiedzających witrynę. Podnosi to również współczynnik indeksowania. Szybka strona to znak dla Googlebota, że serwery są na tyle zdrowe, że może on zdobyć więcej treści przy takiej samej liczbie połączeń. Z drugiej strony, duża liczba błędów typu 5xx lub przerwanych połączeń świadczą o czymś zupełnie innym – w takim przypadku Googlebot spowalnia indeksowanie. Google rekomenduje monitorowanie błędów indeksowania w Google Search Console i dbanie o dobre odpowiedzi serwera.

    Pytanie:Czy poziom indeksacji jest czynnikiem rankingowym?
    Odpowiedź: Wysoki współczynnik indeksowania jest ważny, ale niekoniecznie wpłynie na lepszą pozycję w wynikach wyszukiwania. Google wykorzystuje setki sygnałów rankingowych do ustalania pozycji strony, a skoro indeksacja jest konieczna do zaistnienia witryny w ogóle w SERPach – to nie jest to czynnik rankingowy a zwykły, standardowy proces.

    Pytanie: Czy alternatywne adresy URL i różnego rodzaju kontent osadzony w witrynie wpływają na budżet indeksowania?
    Odpowiedź: Generalnie każdy adres, przez który przechodzi Googlebot wlicza się w budżet indeksowania witryny. Alternatywne URLe, takie jak linki AMP, czy hreflang, podobnie jak osadzony kontent, ładowane pliki CSS czy JavaScript, są crawlowane przez Googlebota, a zatem konsumują w części budżet indeksowania witryny. Podobnie, długie łańcuchy przekierowań mogą mieć negatywny wpływ na indeksowanie.

    Pytanie:Czy można kontrolować Googlebota przy pomocy dyrektywy „crawl-delay”?
    Odpowiedź: Niestandardowe dyrektywy „crawl-delay” umieszczane w robots.txt nie są przetwarzane przez Googlebota.

    Pytanie: Czy dyrektywa „nofollow” wpływa na budżet indeksowania witryny?
    Odpowiedź: To zależy. Każdy link, który jest sprawdzany przez Googlebota wpływa na crawl budget, zatem nawet jeśli oznaczysz stronę jako nofollow, ona nadal może zostać sprawdzona przez Googlebota, gdy inna podstrona Twojej witryny do niej linkuje, lub Googlebot znajdzie w sieci link do niej, który nie został oznaczony jako nofollow.

    Więcej informacji o optymalizacji indeksacji swojej strony możesz rzecz jasna wyszperać na naszym słitaśnym blogasie, ale w razie czego idzie też zaczerpnąć co nieco z artykułu na ten temat (co prawda z 2009 roku, ale wciąż na czasie), który Google umieścił na swoim blogu o tu właśnie.

    Artykuł jest luźnym tłumaczeniem tego wpisu.
  • Duplicate content: Czym jest zjawisko duplikacji treści?

    Duplicate content: Czym jest zjawisko duplikacji treści?

    Ogólnie mówiąc z duplikacją treści (duplicate content) mamy do czynienia wtedy, gdy ta sama treść występuje w wielu miejscach w sieci. Dla potrzeb wpisu będziemy mówić o zewnętrznych duplikatach treści.
    Jednak o duplikacji treści możemy również mówić w odniesieniu do jednej witryny, kiedy ta sama treść występuje na wielu jej podstronach. Więcej o wewnętrznych duplikatach treści w dalszej części postu.

    Kilka słów o duplicate content

    Duplikacja treści to bardzo szerokie pojęcie i nie zawsze może być postrzegane pozytywnie lub negatywnie. Czasem duplikacja treści nie ma większego znaczenia, a innym razem jest to oczywisty powód, przez który widoczność Twojej witryny jest po prostu kiepska. Bardzo często z duplikacją mamy do czynienia w ramach witryn e-commerce. Jest to oczywiście zjawisko dotykające dużo szerszej gamy problemów, niż tylko kopiowanie opisów produktów w sklepie internetowym.

    Na początek sprawdźmy co Google na to:

    „ If the vast majority or all of your content is the same content that appears everywhere else, and there’s nothing else to really distinguish it or to add value, that’s something I would try to avoid if you can – Matt Cutts”

    “Jeżeli większość lub cała treść twojej witryny występuje w wielu innych miejscach (w sieci) i nie ma nic co tak naprawdę ją wyróżnia lub dodaje wartość to jest to coś czego w miarę możliwości radziłbym unikać.”

    Duplicate content: kopiować czy nie kopiować?

    Nie od dzisiaj wiadomo, że treść się liczy, contenty są kingi i takie takie, tym bardziej nie powinniśmy zapominać, aby nie odbierać sobie szansy na docieranie do nowych użytkowników za pomocą ciekawej i oryginalnej treści.

    Przyczepmy się już do tych nieszczęsnych, kopiowanych opisów produktów w sklepie internetowym i zastanówmy się teraz wspólnie nad odpowiedzią na pytanie:

    Dlaczego to moja witryna z takimi samymi opisami ma być pokazywana w wynikach wyszukiwania, a nie strona mojej konkurencji, która nota bene ma takie same opisy w swoim?

    Pierwsza odpowiedź, która pada w większości przypadków to: „bo ja się pozycjonuję” hehehe tak to nie zbity argument ;) ale co poza tym?

    Czy dajesz swoim klientom (i wyszukiwarce) wartość dodaną? Czy wyróżniasz się na tle konkurencji?

    Czy po prostu Twój sklep internetowy to zbiór takich samych zdjęć i takich samych treści oraz masa linków pomiędzy jednym, a drugim produktem (takim samym), których jest pełno w sieci (i nie kolor tła się nie liczy;)
    Tak, tak niestety wygląda większość sklepów internetowych – smutno.

    smutny osiol
    Źródło: vader.fr

    Pamiętajmy, że:

    “Google doesn’t want to show the same content to searchers for the same query; they do like to diversify the results to their searchers”, – Google’s Matt Cutts.
    “Google nie chce pokazywać tej samej treści dla użytkowników odpytujących wyszukiwarkę; chcą urozmaicać wyniki wyszukiwania” – Google Matt Cutts.

    Jakie zagrożenia niesie za sobą duplikacja treści?

    Wiemy, że w internetach grasuje Panda, która żywi się małą ilościowo, mało oryginalną oraz kopiowaną z innych stron treścią i takie strony zostają oznaczone jako niskie jakościowo przez co ich widoczność jest redukowana.

    Bywają przypadki przez, które witryna z duplikacją treści ma problemy w rankowaniu.

    Osobiście jestem zwolennikiem, aby oddawać użytkownikom (oraz wyszukiwarkom) do dyspozycji oryginalną treść, aby w ten sposób podnosić wartość witryny oraz, aby zwyczajnie witryna miała większą szansę przebić się w gąszczu takiej samej treści.

    (tutaj miał być gif osła skaczącego i krzyczącego „wybierz mnie”, ale nie znalazłem… – masz takowy? Podeślij ;)

    Przejdźmy przez różne rodzaje duplikacji treści od wewnętrznej do zewnętrznej i przyjrzyjmy się, które nam mogą zaszkodzić, a którymi nie powinniśmy się zbytnio przejmować.

    Wewnętrzne kopie treści (na stronie) – internal duplicate content

    Strona główna pod kilkoma adresami

    Bardzo często mamy do czynienia ze zjawiskiem duplikacji zawartości strony głównej, która występuje pod kilkoma różnymi adresami. Wygląda to tak:

    http://www.domena.pl , http:// domena.pl, http://www.domena.pl/index.html, czy http:// domena.pl/index.html – kilka różnych adresów ta sama treść.

    Jak to naprawić?

    Najlepszym rozwiązaniem jest odpowiednie ustawienie przekierowania 301 w pliku .htaccess i permanentne ustawienie wybranego adresu. Oczywiście rel=”canonical” załatwiłby sprawę z adresem www i bez-www, to jednak biorąc pod uwagę naturalne linkowanie użytkowników, którzy nie zawsze wybiorą „dobry” adres URL chcąc podlinkować naszą domenę, my możemy być stratni.

    Duplikaty meta tagów

    Czy są groźne? Raczej nie. Jednak jak już wiemy, również nam to nie pomaga, a skoro nie pomaga to czy tym samym nie szkodzi? Tracimy okazję, aby w ważnym miejscu umieścić różne słowa kluczowe, na które moglibyśmy rankować z kolejnymi podstronami.

    Jak to naprawić?

    Informację o duplikatach odnośnie meta opisów oraz tagu title znajdziemy w narzędziach Google dla Webmasterów w zakładce ‘Status w wyszukiwarce > Udoskonalenia HTML’. Potem klawiatura w dłoń i do dzieła ;)

    Kategorie, tagi

    Kolejne elementy, które w większości zawierają tą samą treść w postaci ostatnich postów (blog) lub produktów. Duplikacja przewija się w całej masie sztucznie wygenerowanych podstron.

    Jak to naprawić?

    O ile kategorie zarówno w przypadku blogów jak i e-commerce mogą stanowić dosyć dobre „landing page” po wypełnieniu oryginalną treścią i umieszczeniu linków wewnątrz treści to należy rozpatrzyć „tagowanie w granicach rozsądku” (a czasem to wygląda jak hashtagi pod fotkami na instagramie).

    hashtagi z instagrama
    Źródło: instagram.com

    Dodatkowo tagi mogą zostać zablokowane przed indeksacją. Więcej o blokowaniu treści przed robotami możesz przeczytać tutaj: www.robotstxt.org/meta.html

    Produkty

    Opisy produktów. Zdecydowana większość sklepów opisy swoich produktów wkleja wprost od producenta. W większości sklepów opisy produktów nie wyróżniają się wcale i dodatkowo zawierają nikłą ilość treści i informacji.

    Jak to naprawić?

    Techniczne opisy produktów jak najbardziej mogą pozostać nie zmienione – trudno wymyślać inny kolor, materiał czy rozmiar produktu. Jednak to co jest ważniejsze to dodanie wartościowego i unikatowego opisu. Dzięki temu nie tylko wzbogacimy naszą witrynę, dostaniemy trochę „punktów SEO” czy będziemy mogli rankować na frazy z długiego ogona, ale bardzo prawdopodobne, że dzięki naszemu opisowi uda nam się przekonać klienta do zakupu – a chyba o to właśnie chodzi prawda? ;)

    Szukajka

    Podobny problem jak w przypadku tagów. Należy pamiętać, że każde skorzystanie z szukajki tworzy nowe podstrony, a to oznacza nie mniej nie więcej jak kolejne duplikaty.

    Jak to naprawić?

    Najlepszą metodą jest wklejenie odpowiednich komend w pliku robots.txt blokujących dostęp robotom wyszukiwarki. W zależności od tego jak wygląda taki adres URL możemy użyć komend:

    Disallow: *?dir=*
    Disallow: *&order=*
    Disallow: *?price=*

    Sesje, filtrowanie, sortowanie

    Podobny problem jak wyżej.

    Jak to naprawić?

    Jak wyżej blokujemy dostęp robotom wyszukiwarki w pliku robots.txt np.:
    Disallow: *?sid=*

    Zewnętrzne kopie treści (poza stroną) – external duplicate content

    Mikro strony

    Dość często klienci posiadają kilka domen, a pod nimi postawione są strony z tą samą treścią jak na „głównej domenie”. Kopia 1:1. Bez przekierowania. Duplicate content w czystej postaci. W głównej mierze wynika to z niewiedzy przez co klienci sami nie wiedzą, że są narażeni na straty.

    Jak to naprawić?

    Rozwiązań może być kilka.

    • Można wypełnić strony nową i unikatową treścią skupiając się na konkretnych usługach.
    • Można użyć przekierowania 301 kierując je na główną domenę.
    • Można również rozważyć budowanie indywidualnych stron dla oddzielnych lokalizacji, jeżeli firma działa w kilku miejscowościach.

    Kategorie biznesowe

    Jak już wspominałem jestem za pisaniem oryginalnych treści, kiedy tylko jest taka możliwość. Na innych stronach, czy to IYP czy katalogach branżowych dostajemy możliwość napisania kilku zdań na temat naszej firmy. Ostatnio przeczytałem, że takie unikatowe opisy nie mają większego znaczenia, i że Google wcale nie 'patrzy lepiej’ na wpisy, które mają oryginalną treść. Jednak ja mam z tym pewien problem. Abstrahując od moderacji oraz warunków, które muszą spełnić poszczególne opisy. Dlaczego? Otóż jeżeli wiemy, że Google obniża wartość stron z duplikacją treści to warto się zastanowić czy przez takie działanie nie niszczymy miejsca, które ma nam pomóc w zdobyciu większej widoczności?

    Jak to naprawić?

    Warto dodawać oryginalne opisy w innych miejscach w sieci. Jeżeli jednak duplikacja ma miejsce tylko w ramach zewnętrznych stron biznesowych i nie są to treści skopiowane z naszej strony, wtedy nie musimy się martwić (o naszą stronę).

    Twoja treść na zewnętrznych stronach

    Zdarza się tak, że treść Twojej strony zostanie skopiowana oraz wstawiona na inną witrynę. Może będzie to ktoś komu spodobał się Twój post i chciał się nim podzielić ze swoimi czytelnikami (w dziwny sposób;). Wtedy mamy do czynienia z duplikatem treści.

    Jak to naprawić?

    Tak naprawdę możemy zapytać czy jest co naprawiać. Robot Google przemierza mnóstwo stron sprawdzając co się na nich znajduje. Jeżeli ktoś znalazł Twój artykuł/stronę, to tym bardziej znalazło ją Google i wie gdzie dany materiał ukazał się pierwszy. Ktoś może powiedzieć, że znajdzie artykuł z zakamarków Internetu, ale zdradzę Ci sekret, nie ma zakamarków Internetu, wszystko jest w bazie Google i na tej podstawie określana jest wartość strony ;)

    W każdym razie zawsze można skorzystać z narzędzia Google stworzonego do właśnie takich przypadków: Scraper Report

    Na koniec

    Tak długo, jak jesteś świadomy kwestii występowania duplikatów treści i starasz się im zapobiegać na przykład przez umieszczanie oryginalnych treści, nie musisz się martwić. Google o tym wie, że duplikacja się zdarza (nawet przypadkowo).

    Czasem może to zabrać sporo czasu, aby wypełnić stronę unikatową treścią czy zająć się przeredagowaniem istniejących kopi treści w Internecie. Jednak wszystko co robisz w oparciu o dostarczenie wysokiej jakości prędzej czy później będzie miało przełożenie na lepsze efekty.

    Ciekawy jestem waszego zdania. Jakie macie doświadczenia z duplikacją treści?

  • Clickbait: Kilka rzeczy, których nikt Ci nie powiedział

    Clickbait: Kilka rzeczy, których nikt Ci nie powiedział

    Czym dokładnie jest clickbait i dlaczego ma duże znaczenie dla małych firm?

    Clickbait jest jednym z najstarszych trików opisywanych w wielu książkach dla marketingowców, twórców treści i dziennikarzy. Historia tego terminu sięga początków XIX wieku, gdy dziennikarze tworzący gazety sięgali do metod tzw. żółtego dziennikarstwa (ang. „yellow journalism”). Obecnie ten termin odżył dzięki komputerom i internetowi. Niezależnie od wieku tego terminu i praktyki, ma ona negatywne konotacje nawet dzisiaj. Wiedza na temat tej metody może przydać się małym firmom. Warto wiedzieć jak działa i jak stosować czy lepiej pozostawić takie praktyki na zawsze.

    Jaka jest różnica pomiędzy Clickbait, a łatwo pozyskiwanymi kliknięciami?

    Czym dokładnie jest clickbait? Pojęcie to odnosi się do nagłówka, linku lub kontekstu, w którym pojawia się link. Elementy te są zaprojektowane, by generować kliknięcia zaciekawionych internautów, by ci zobaczyli, co się stanie, gdy klikną w odnośnik. Zgodnie z zasadą Clickbait, nie objaśnia, co znajduje się pod linkiem i do czego on prowadzi. Ba, nie musi być to nawet istotne, ani oparte na faktach. Chodzi o skłonienie czytelnika do kliknięcia – dosyć proste prawda? Idziemy dalej.

    To jest fast food dla umysłu, słodki napój dla intelektu. Jest jak kreskówka zamiast dramatu, serial zamiast wieczornych wiadomości […] Dlaczego mamy czytać straszne wiadomości o stanie gospodarki, albo o zagrożeniach ze strony ekstremistów jeśli możemy poczytać sobie o 5 faktach na temat „Star Wars”, o których nie mieliśmy pojęcia? Ten trik gra na twoich słabościach i łechta te części mózgu, które są odpowiedzialne za chęć do łatwej, taniej rozrywki.” – jak napisali w Common Places

    Warto wspomnieć o tym, że niektórzy nazywają tę metodę określeniem „buzz”, ale różnica jest taka, że jest ona godna uwagi nie ze względu na ważność, ale raczej ze względu na chwytliwe nagłówki lub krzykliwe obrazy (poza tym, często clickbait bywa mylący). Technika ta, jest również stosowana bezpośrednio na Facebooku. W takich przypadkach opis posta sugeruje coś trudnego do uwierzenia, w co trzeba kliknąć, żeby to zobaczyć, bo inaczej nikt inny nie powie, co kryje się pod linkiem.

    Clickbait przykład
    Przykład Click Bait na Facebooku. Źródło: The Washington Post

    Clickbait w sieci

    Clickbait wywołał zacięte dyskusje w sieci. Ilu internautów, tyle jest opinii na ten temat. Spójrzmy więc na kilka przykładów:

    1. Facebook wprowadził zmiany w swej polityce dotyczącej clickbait. Twórcy popularnego portalu społecznościowego zdali sobie sprawę, że w momencie gdy użytkownicy klikają w link wykorzystujący technikę clickbait, ląduje on wyżej na ich ścianach, co sprawia że to właśnie te artykuły, a nie posty wrzucane przez znajomych są częściej widoczne. Więcej na temat polityki względem jej wykorzystywania można przeczytać na The Washington Post
    1. Serwis The Onion stworzył Clickhole. Jest to dosyć nowa strona internetowa pełna artykułów, list, Gifów i oczywiście nagłówków wykorzystujących clickbait. The Onion chciało w ten sposób zadrwić nie tylko ze stron takich jak Upworthy lub Buzzfeed, ale ze wszystkich wykorzystujących tę technikę. Z resztą, przekonajcie się sami tutaj: http://www.clickhole.com może zaczerpniecie trochę inspiracji ;)
    1. John Stewart też wbija swoją szpilkę w clickbait. W tym pięciominutowym zabawnym filmie, Stewart opowiada o tym, jak internet zmienił znaczenie dziennikarstwa w dzisiejszym świecie. Zabawne jest to, że w ciągu 5 minut udało mu się stworzyć materiał, który ma bardzo doniosłe znaczenie.

    Czy trzymać się z dala od publikowania clickbait i dlaczego?

    Większość małych i średnich firm dąży do tego, by uzyskać jak największą ilość kliknięć. Zależy im jednak również na dzieleniu się ich treścią i zaangażowaniu czytelników. Pozyskiwanie kliknięć przez oszukiwanie odbiorców treści lub stwarzanie niejasnych treści może ukazać firmę lub reprezentowaną przez nią markę jako irytującą. Innymi słowy, technika ta jest wątpliwą drogą do sukcesu. Oczywiście ta technika może na początku działać i przynosić krótkotrwałe efekty. Ale w miarę upływu czasu, im dłużej korzystacie z trików clickbait, będziecie coraz mniej wiarygodni, a ogólna liczba kliknięć spadnie. A ile warte są kliknięcia, które nie przynoszą leadów i zniechęcają czytelników?

    Niestety istnieje ryzyko, że praktykujecie clickbait nawet o tym nie wiedząc. Najważniejsze dla firm jest to, że powinny lepiej dbać o publikowane na swoich stronach treści. Kliknięcia są oczywiście ważne, ale musicie myśleć z wyprzedzeniem. To oznacza w praktyce, że lepiej publikować mniej treści, która będzie uczciwie i poważnie traktować waszych czytelników. Przejrzyjcie publikowane na swoich stronach treści, sprawdźcie czy nie noszą one znamion clickbait i w razie czego je poprawcie. Nawet jeśli to nie pomoże, to na pewno nie zaszkodzi.

    Czy clickbait było kiedykolwiek dobre?

    Jeśli chcecie sprawić, by przyziemny temat był odrobinę bardziej interesujący, clickbait może być jakimś rozwiązaniem. Ale trzeba pamiętać, że to działa tylko wtedy, gdy pod linkiem znajduje się coś naprawdę interesującego, co nie spowoduje rozczarowania u osoby, która zdecyduje się kliknąć w link, a kto wie może wtedy również uzyskasz efekt „buzz” i nawet trochę linków i udostępnień ;) BuzzFeed jest dobrym miejscem, aby sprawdzić kiedy clickbait działa (w większości wypadków), a kiedy nie działa.

    Od tyle na dziś :)

    Źródła i „inspiracja” ;)
    https://www.washingtonpost.com/news/technology/wp/2014/08/26/what-is-click-bait-and-why-facebook-wants-to-display-less-of-it/
    http://www.highervisibility.com/what-exactly-is-clickbait-and-why-does-it-matter-for-small-businesses/
    http://www.clickhole.com
    http://www.buzzfeed.com
    clickbait Fot: collegehumor.com
  • Google: Kolejne zmiany w lokalnych wynikach wyszukiwania

    Google: Kolejne zmiany w lokalnych wynikach wyszukiwania

    Może już niektórzy z Was zauważyli, że Googlak od czasu do czasu lubi pozmieniać to i owo w swoim środowisku. Robi to głównie po to, aby tacy jak my mogli o tym napisać na blogu takim jak ten. Oczywiście jest jeszcze kilka innych błahych powodów, o których nie warto wspominać, bo są… błahe.

    Warto jednak pamiętać, że zmieniają, lubią zmieniać i będą zmieniać, w końcu to ich biznes i ich podwórko c’nie? :)

    ppfffhahahahah ten czo paczy alty grafik we wpisie muahahhahahahah

    Do meritum:

    Jakiś czas temu Ci bardziej spostrzegawczy z Was mogli dostrzec kilka zmian (ulepszeń?) w lokalnych wynikach wyszukiwania zwanych mapkami – osobiście znam miejsce, gdzie się na to mówi pinezki albo balony – pozdrawiam „specjalistę od balonów w Google” ;)

    Otóż do tychże zostały dodane nowe opcje sortowania, ha! tak to jest ta nowość, nowe opcje sortowania w lokalnych wynikach wyszukiwania.

    Nowe filtry w lokalnych wynikach wyszukiwania (soraweczka, ale muszę to jeszcze kilka razy powtórzyć w końcu robimy SEO, więc keywords density musi się zgadzać) wyglądają następująco:

     

    nowe opcje sortowania w lokalnych wynikach wyszukiwania
    Filtrowanie w lokalnych wynikach wyszukiwania

     

    Dzięki nim każdy użytkownik Internetu, czyli Google może posortować wynik według własnych upodobań i preferencji.

    Wybierając opcję sortowania wg. godzin otwarcia wyświetli nam się nowe menu rozwijane dzięki, któremu możemy wybrać dzień, a następnie godzinę otwarcia danego miejsca, how cool is that!

     

    Wyniki lokalne sortowane wg. dni i godzin otwarcia
    Sortowanie wyników lokalych według godzin otwarcia oraz dni

     

    Użytkownik może również posortować wyniki lokalne (czyli te na mapkach, pamiętacie?) według trafności – zaznaczone domyślnie – oraz odległości od osoby zadającej pytanie – zdziwko co? ;) a wygląda to tak:

     

    wyniki lokalne na mapach posortowane według trafności oraz odległości
    sortowanie wyników na mapach według trafności raz odległości

     

    Zmiany oczywiście nie ominęły lokalnych wyników mobilnych, do których dodane zostało trochę więcej filtrów i teraz dzięki nim osoba korzystająca z przenośnego urządzenia mobilnego (to chyba jedno i to samo?) również ma możliwość posortowania swoich wyników według kilku nowych filtrów. Nowe filtry dla wyników mobilnych przedstawiają się następująco:

     

    nowe filtry w mobilnych wynikach lokalnych
    Filtry w lokalnych wynikach na urządzenia mobilne

     

    Filtry pozwalają użytkownikom posortować mobilne wyniki lokalne wg. odległości, lokalizacji najwyżej ocenianych czy otwartych w momencie wykonywania wyszukiwania.

    Dodane zostało również więcej filtrów, do których dostęp uzyskamy po kliknięciu opcji „Więcej filtrów”:

     

    więcej filtrów w mobilnych wynikach wyszukiwania
    Dodatkowe filtry po kliknięciu opcji „więcej filtrów”

     

    Co ciekawe dla zapytań o brand z kilkoma różnymi lokalizacjami, dostępne filtry w lokalnych wynikach mobilnych ograniczają się tylko do godzin otwarcia:

     

    zapytanie o brand na mobile w lokalnych wynikach wyszukiwania
    Zapytanie o brand z kilkoma lokalizacjami w mobilnych wynikach wyszukiwania

     

    O tak o :)

    Zdaje się, że nowe filtry zostały wprowadzone do wszystkich wyników z mapami i są dostępne we wszystkich językach.

    Czy to zmiana, która się utrzyma? Jak długo przyjdzie nam korzystać z nowych filtrów dla wyników lokalnych (już przesadzam co?)?

    Jedno jest pewne, jeżeli Google coś zmienia oznacza to, iż niedługo będzie to jeszcze bardziej istotne dla Twojego biznesu.

    Jak to wykorzystać?

    • Zakładając profil na Google Moja Firma,
    • Weryfikując lokalizację,
    • I wypełniając profil wszelkimi informacjami wraz ze zdjęciami.

    Resztę dowiecie się na naszym SEO blogu :)