Posts Tagged

SEO

Co to jest Crawl Budget – Czy warto się nim przejmować?

Spis treści

  1. Czym jest Crawl Budget?
  2. Crawl rate limit, Crawl health i Crawl demand.
  3. Co wpływa na Crawl Budget?.
  4. Jak zmierzyć Crawl Budget?.
  5. Jak zmaksymalizować swój Crawl Budget?.
  1. Program Screaming Frog – dlaczego warto go użyć?.

 

Ostatnimi czasy zrobiło się głośno o pojęciu budżetu indeksowania. Jest ono kluczowe dla każdego profesjonalnego SEOwca i osób, które na poważnie zajmują się optymalizacją stron internetowych. W tekście postaram się odpowiednio jasno i precyzyjnie zgłębić to rozległe zagadnienie.

Czym jest Crawl Budget?

Budżet indeksowania witryn to swego rodzaju limiter, który zostaje nakładany na roboty Google. Indeksowanie i reindeksowanie obciąża serwery zarówno właścicieli witryn, jak i samego Google.

Jeżeli witryny są rozbudowane i zajmują sporo przestrzeni, a także automatycznie generują dynamiczne zasoby, wówczas ich indeksowanie nie należy do zbyt wydajnych procesów. Google uważa, że wprowadzenie budżetu indeksowania odciąża witryny i ułatwia użytkownikom swobodne poruszanie się po nich.

Crawl rate limit, Crawl health i Crawl demand

Na Crawl Budget składają się trzy ważne parametry – Crawl rate limit, Crawl demand i Crawl health. Zacznę od pierwszego z nich.

Crawl rate limit, czyli limit współczynnika indeksacji ogranicza maksymalną liczbę pobrań danych ze strony. Pisząc inaczej – limit współczynnika indeksacji ściśle określa ilość połączeń wykonywanych równolegle przez roboty Google, które indeksują daną stronę. Parametr ten wpływa również na interwały pomiędzy łączeniem się Googlebotów. Crawl rate limit może być ustawiany ręcznie w narzędziu Google Search Console. Częstotliwości indeksowania nie można zwiększyć. Zmniejszenia zaleca się podczas awarii i niespodziewanych obciążeniach serwera.

Crawl demand z kolei określa częstotliwość, z jaką witryna jest indeksowana. Parametr ten przekazuje robotom Google, że poszczególne strony wymagają częstszej opieki z ich strony. Na Crawl demand składa się popularność oraz ruch, którymi odznacza się strona. Poza tym kluczowa jest również aktualność danych oraz sama częstotliwość aktualizacji treści na stronach. Google przychylniej spogląda na witryny, które są często aktualizowane. Ustawienia tych częstotliwości dostępne były przez pewien czas, jednakże Google postanowiło zrezygnować z tego parametru.

Crawl health jest parametrem opisującym poprawność indeksacji. Gdy witryna odpowiada szybciej, sprawniej i ogólnie jest bardziej przyjazna dla robotów Google, wówczas te będą indeksować więcej. Jeżeli strona jest źle zoptymalizowana, limit indeksacji się zmniejsza, ponieważ maleje ilość połączeń nawiązywanych przez roboty.

Co wpływa na Crawl Budget?

Na budżet indeksowania wpływają wyżej wymienione parametry. Crawl Budget można opisać jako wypadową parametrów: crawl rate limit i crawl demand. Poza tym, podchodząc do tematu bardziej szczegółowo, Crawl Budget implikowany jest przez kilka czynników. Są to przede wszystkim:

identyfikatory sesji i nawigacja fasetowa, duplikowane treści wewnątrz struktury witryny, miękkie błędy na podstronach, nieskończona ilość podstron oraz słaby content lub spam. Ogólnie rzecz biorąc, wszystkie te problemy związane są z elementarną optymalizacją strony pod względem technicznym. Jeżeli zamierzasz poprawić Crawl Budget, zwróć uwagę, czy Twojej witryny nie trapią wyżej wymienione kłopoty.

Jak zmierzyć Crawl Budget?

Niektóre stare i obszerne witryny są dla robotów Google prawdziwym labiryntem. Im bardziej rozbudowana struktura strony, tym więcej backlinków będzie posiadać. Mogą być ich setki, a nawet tysiące i znacząco wpływają na częstotliwość wykonywanych wyszukań.

Nie do końca wiadomo, w jaki sposób można zmierzyć Crawl Budget. Niemniej, wydaje się, że zgodna z prawdą jest hipoteza głosząca, że budżet indeksowania witryny jest mniej więcej proporcjonalny do liczby backlinków podzielonych na liczbę stron witryny.

Jak zmaksymalizować swój Crawl Budget?

Metod na poprawę budżetu indeksowania jest kilka. Oczywiście znaczącą poprawę odczujesz, gdy usuniesz problemy z punktu 3, które dotyczą Twojej strony. Poza tym zagadnienie związane z maksymalizacją budżetu indeksowania witryny lepiej opisują poniżej podane elementy związane ze strukturą i funkcjonowaniem witryny.

Struktura strony i linki wewnętrzne

Prawidłowa architektura strony oraz dobrze zagnieżdżane wewnętrzne linki w znaczący sposób wpływają na tempo indeksacji. Odpowiednie kształtowanie witryny wraz z nawigacją fasetową i kategoryzowaniem struktury pozytywnie odciśnie się na budżecie indeksowania Twojej strony. Warto zadbać również o autorytet i zaufanie poprzez dopasowywanie struktury strony do strategii linkowania.

Uszkodzone linki i przekierowania

Uszkodzone link i nieprawidłowe przekierowania mocno ograniczają Crawl Budget. Na szczęście można je łatwo naprawić. Za każdym razem, gdy robot podąży za uszkodzonym linkiem, natrafi na błąd 404, co zmarnuje jego „czas” i zredukuje Crawl demand i crawl limit. Zdobądź się na analizę witryny i identyfikację uszkodzonych linków i szybko je napraw.

Wiedz, że zbyt długie łańcuchy przekierowań również stanowią ograniczenie dla Crawl Budget. Warto skrócić te długie ścieżki i podróże robotów po Twojej witrynie. Tutaj pomocny może okazać się program Screaming Frog – o którym nieco niżej.

Prędkość ładowania strony

Podstawowe zagadnienie techniczne w pozycjonowaniu witryny. Im szybciej witryna będzie się wczytywać, tym roboty stracą mniej czasu na jej indeksacji. Poza tym sprawnie wczytująca się strona jest atrakcyjna również dla użytkowników. Page Speed swojej strony możesz przetestować np. narzędziem dostarczanym przez kalifornijskiego giganta – Google PageSpeed Insights.

Usuwanie duplikowanych treści

Duplikowanie stron to ogromne marnotrawstwo zasobów indeksowania. W przypadku budżetowania indeksowania nawet tag kanoniczny niewiele pomoże. Duplikowane strony i tak będą skanowane przez roboty Google, co w konsekwencji obniży wydajność ich pracy. Im więcej zduplikowanych stron usuniesz, tym lepiej dla Ciebie.

Mapa witryny

Mapa strony w postaci pliku HTML lub XML ma ogromną wartość zarówno dla SEO, jak i dla budżetu indeksowania. Ułatwia poruszanie się po witrynie Googlebotom – głównie poprzez wskazywanie im wewnętrznych połączeń między stronami witryny. Zwróć uwagę, aby mapa witryny nie zawierała zduplikowanych stron. Poza tym mapa nie powinna zawierać adresów URL z tagami „noindex” i „nofollow”, a także powinna być wolna od adresów URL niedozwolonych w pliku robots.txt

Plik robots.txt i analiza logów serwera

Pliki robots.txt kierują robotami Google. Przede wszystkim powinieneś blokować katalogi, których nie chcesz indeksować (Adminowy back-end lub strony CMS). Warto zablokować również strony logowania, (szczególnie w popularnych CMSach) które często „odpytwanie” są przez spamiarki. Nie marnuj zasobów indeksowania na te adresy. Google nie zaleca również indeksowania stron takich jak:

  • strony wyszukiwarki wewnętrznej
  • paginacja
  • sortowanie
  • zmiany widoku
  • filtry kategorii
  • linki z parametrami modyfikującym produkt

Aby lepiej zrozumieć dostosowanie pliku robots.txt do indeksowanych obszarów, warto również zdobyć się na przeanalizowanie logów serwera.

Program Screaming Frog – dlaczego warto go użyć?

Screaming Frog to jeden z programów do dokładnej analizy witryn. Dostępny jest na Windowsa, Linuxa i Maca. Program jest rozbudowany i powinien znaleźć się w biblioteczce każdego szanującego się SEOwca i webmastera. Licencja kosztuje około £100 rocznie.

Rekomenduję program jako świetne narzędzie do analizowania problemów i maksymalizacji związanych z budżetem indeksowania, a także przeprowadzania dokładnego audytu SEO. Z powodzeniem radzi sobie z optymalizacją każdego wymienionego we wcześniejszym punkcie aspektu. Sprawdzi się również w innych aspektach związanych z technicznym pozycjonowaniem witryn – np. audytem grafik, sprawdzaniem poprawności wdrożeń GSC i GA, wylistowaniem błędów związanych z URLami, czy ze znacznikami meta.

 

Autor tematuhauerpower studio / hauer mateusz – grafik na co dzień projektuje strony internetowe. W swojej pracy stawiający na minimalizm graficzny, wysoką użyteczność tworzonych rozwiązań.

 

Jak przyśpieszyć WordPressa?

Jeżeli zastanawiasz się jak przyśpieszyć WordPressa to bardzo dobrze trafiłeś. W tym artykule odnajdziesz, masę narzędzi oraz strategii które pozwolą Ci w miarę nieinwazyjny sposób poprawić prędkość ładowania się twojej strony.

Dlaczego przyśpieszenie WordPressa jest ważne?

Czasy ładowania strony jest  bardzo ważny. Głównym powodem w jakim użytkownicy/klienci siadają przed ekran komputera jest wygoda i oszczędność  czas. My jako wydawcy musimy im te podstawowe warunki zapewnić.

By nie być gołosłownym przywołam tu kilka bardzo ciekawych statystyk.

Optimizely dodało sztuczne opóźnienie na stronie Telegraph i zanotowało ogromny spadek odsłon: 11% dla 4-sekundowego opóźnienia  i 44% dla 20-sekundowego opóźnienia.

https://blog.optimizely.com/2016/07/13/how-does-page-load-time-impact-engagement

Staples zmniejszył mediane czasu ładowania strony głównej o  1 sekundę i skróciło czas ładowania dla 98% stron  o 6 sekund. W rezultacie, konwersja wzrosła o 10%.

http://www.slideshare.net/cliffcrocker/velocity-ny-how-to-measure-revenue-in-milliseconds

 

Pamiętać również należy, że są to duże brandy, którym czasem sporo wybaczamy. Jeżeli ktoś kupuję regularnie na Allegro, to nie zrezygnuję z tej usługi gdy strona zwolni, lub nawet gdy przestanie działać. Rozkręcają jednak swój biznes/bloga, lub go dynamicznie rozwijając, musimy starać się podwójnie. Wszystko ma być, płynę, sprawne, zrozumiałe.

Jak sprawdzić prędkość strony?

To proste! Wystarczy użyć tych kilku przykładowych narzędzi:

Przyśpieszenie WordPressa a SEO

Dwoma kolejnym powodami dla których warto pochylić się nad przyśpieszenie strony jest perspektywa UX oraz SEO. Nie mówiąc już o erze mobile.

Tej pierwszej z logicznego punktu widzenia, nie muszę tłumaczyć.  W kwestii optymalizacji, testy nie przedstawiły jasnych dowodów, jednakże wpływ prędkości strony na jej pozycję jest oficjalnym stanowiskiem Google.

https://webmasters.googleblog.com/2010/04/using-site-speed-in-web-search-ranking.html

Przyśpieszanie WordPressa

Więc co można zrobić, aby uczynić wordpressa szybszym? Oto kilka prostych sposobów, aby utrzymywać czas ładowania strony na  niskim poziomie.

  1. Dobór hosta/serwera: Dostajesz to, za co płacisz. Tania oferta może bardzo wpłynąć na szybkość ładowania strony, a w miarę jej rozwoju i upływu czasu będzie coraz gorzej. Nie wspominając o darmowych rozwiązaniach. Więc upewnij się, że wybrany przez Ciebie hosting odpowiednio spełnia potrzeb Twojej firmy lub bloga. Radzę zaczerpnąć opinii znajomych, poszukać co nieco w sieci:

http://www.webhostingtalk.pl/ranking/ Osobiście polecam- zdrowy rozsądek.

  1. Optymalizacja ogromnych i „ciężkich” obrazków: Obrazy i fotografie, które pożerają zasoby serwera i których czas załadowania trwa w nieskończoność znacznie zmniejszają prędkość twojej strony.

Zalecane formaty:

  • Format PNG dla obrazów, które nie wymagają wysokich detalach, takie jak logo, części strony.
  • Format JPEG dla zdjęć.

Podstawowe 3  kroki związane z plikami graficznymi:

  1. Przed wrzuceniem na serwer staraj się możliwie maksymalnie zmniejszyć rozdzielczość obrazków.
  2. Po zmniejszeniu rozdzielczości skompresuj obrazki programem np.:
  1. Zainstaluj wtyczki do automatycznej kompresji (WP Smush – Image Optimization).

Jeżeli masz już dużo zdjęć, i rozwiniętego bloga, a nie chcesz wrzuć wszystkiego od nowa, to częściowo problem może rozwiązać nam właśnie ta wtyczka. W sposób hurtowy skompresuję pliki już znajdujące się we wpisach WordPress.

3. Wybór odpowiedniego motywu: Ich konstrukcja i projekt ma wielki wpływ na szybkość ładowania strony. Za zwyczaj im prostszy theme tym szybciej działa. Przed wyborem, lub w trakcie planowania jego zmiany musimy koniecznie zwrócić uwagę na szybkość jego działania*.

*sprawdzić to można programami podanymi  wcześniej.

Oto przykładowe zestawienie bardzo szybkich motywów: http://wpdean.com/fastest-wordpress-themes/

Pamiętaj aby po każdej zmianie tematu skorzystać z wtyczki Force Regenerate Thumbnails, która dopasuje Ci wszystkie zdjęcia do nowego motywu.

UWAGA!: W przypadku, braku możliwości zmiany themu, jesteśmy skazani na zlecenie optymalizacji komuś bardziej wyspecjalizowanemu. Ponieważ może się to wiązać z nieefektywnością i jakością samego kodu.

4. Zmniejszenie liczby aktywnych wtyczek:  Każda dodatkowa wtyczka to dodatkowy balasy dla twojej strony. Staraj się ograniczyć ich liczbę do minimum potrzebnego do funkcjonowania i utrzymywania najważniejszych funkcji.

5. Zmniejszenie liczby reklam i banerów: Wiele reklam może przeszkadzać  odwiedzającym witrynę w dodatku często zdarza się, że obciążają stronę co wpływa na zmniejszenie szybkości  jej ładowania.

6. Zmniejszenie liczby widgetów: Wiele, nieprzetestowanych i dużych widgetów może znacząco wpłynąć na działanie twojej strony.  Sprawdź, czy z któregoś mógłbyś zrezygnować posiłkując się wykresami z aplikacji testującymi prędkość.

7. Instalacja wtyczki do cache’owania strony: W3 Total Cache lub. WP Super Cache.

8. Instalacja wtyczki do przyśpieszenia: Speed Booster Pack. Wtyczka zawiera bardzo dużo ciekawych opcji, które pomogą nam w przyśpieszaniu WordPressa.

UWAGA!: Opcję pluginu takie jak Move scripts to the footer, Minify all CSS styles, Insert all CSS styles inline to the footer mogą uszkodzić a czasem spowolnić działanie strony. Zalecane dla osób nie bojących się przeinstalowywania motywu. W razie niepewności zalecana jest konsultacja z Webmasterem.

 

Czy pozycjonowanie stron to spam?

Odpowiedź na to pytanie jest bardzo złożona. By zrozumieć cały pojęcie wybrałem kilka pytań pomocniczych, które odpowiednio nakierują Nas na meritum.

Czy marketing jest moralny?

Na samym początku marketing polegał na prostym dostarczeniu informacji do swojego potencjalnego nabywcy. Dystrybuowaliśmy informację jaki mamy towar, w jakiej cenie i w jakim miejscu.

Zwykły rynek a na nim prapradziadek Sylwesterus: „3 świeże ryby, na miejscu, 2 denary od sztuki”.

Jednakże we współczesnych czasach mamy do czynienia z o wiele bardziej skomplikowanymi procesami. Sięgając do źródeł akademickich, można wspomnieć np. o strategii 5P, a nawet 7P.

Produkt-Dystrybucja-Ludzie-Miejsce-Świadectwo Materialne-Proces-Cena.

Nie wchodząc w szczegóły, nie wygląda to na coś wielce niemoralnego? Skąd ta cała niechęć. Głównym powodem jest to, że w wielu przypadkach nie wystarczyło zaspokojenie popytu czyt. potrzeb innych ludzi. Zaczęto kreować potrzeby, których wcześniej nie było.

Więcej o temacie w artykule : Etyka marketingu oraz  Moralny wymiar reklamy

Marketing zostaję kojarzony z wszechobecną i niechcianą reklamą. Zaczęto manipulować, działać na niskich emocjach i pobudkach. Moda, trendy, zazdrość, rozdmuchany konsumpcjonizm itd. – i te całe hipisowskie gadanie 🙂

“We buy things we don’t need with money we don’t have to impress people we don’t like.”

“Kupujemy rzeczy, których nie potrzebujemy, za pieniądze, których nie mamy, by zaimponować ludziom, których nie lubimy”.
Dave Ramsey

Co ma do tego pozycjonowanie?

No właściwie tylko tyle, że nie wygląda przy tym wszystkim tak bardzo źle. To zwykłe dostarczenie informacji o produktach czy firmie i to osobie zainteresowanej usługą.

Czy pozycjonowanie to nielegalna manipulacja?

Przy tym punkcie warto wspomnieć, że Google to największa prywatna agencja marketingowa na świecie. Realizująca swoje prywatne interesy.

Zazwyczaj pierwszym etapem przed przystąpieniem do linkbuldingu (zdobywanie linków), jest optymalizacja, (czyli SEO).

Jako że czasy spamierskiego key-density powoli odchodzą do lamusa, proces SEO polega głównie na poprawieniu struktury strony, dodaniu nagłówków, meta tagów, słów kluczowych, contentu (tesktów) oraz przyśpieszenie jej działania. Kolejny etap to lepsze lub gorsze linkowanie.

Wrócmy do bardziej ogólnej rozkminy. Jaka w tym manipulacja, że będąc mechanikiem w Olsztynie, nasza strona wyświetli się na pierwszym miejscu pod hasłem „mechanik Olsztyn”.

Google nigdy nie będzie w stu procentach sprawiedliwe. Trzeba mu trochę pomóc.

 Dlaczego na wszystkie frazy w Polsce związane z usługami medycznymi ma wyświetlać się duży podlinkowany portal np. znanylekarz.pl zamiast stron lokalnych prywatnych gabinetów. (tu problem rozwiązują nieco Google Maps z adresami oraz geolokalizacja).

W Internecie więksi stają się jeszcze więksi a mali jeszcze mniejsi. Jak w życiu.

Oto przykład: How 16 Companies are Dominating the World’s Google Search Results

Czy linkbulding to spamowanie?

Ja o tym myślę zawsze w pewnym ciekawym kontekście. Miejscówkę (zewnętrzna strona, na której można zdobyć linka) można potraktować, jako zaproszenie na domówkę.

Wymieńmy 5 rodzajów miejsc:

  • Przed wejście stoi ochroniarz i trzeba zapłacić za wejście. To są miejsca płatne. Zwykle moderowane. Nie gwarantuję to jednak udanej imprezy 😉
  •  Domówka z gospodarzem. Można na nią pójść wypić piwko i wrócić do domu. Jak zaczniesz rozrabiać, to gospodarz wygoni. – To miejsca, na których możesz zostawić dobrego darmowego linka i są moderowane.
  • Domówka bez gospodarza. Można na nią pójść wypić piwko i wrócić do domu. Czasem zamienia się w to Project X (miejscówka zostaję zaspamiona), ale nie musi.
  • Rozwalająca się chata. To miejsca, w które możesz dodać darmowego linka i nawet z automatu, ale nie chcesz.
  • Domówka u przyjaciół. Wymiana linkami ze znajomymi z branży. Podlinkowane ciekawych artykułów, linki naturalne.
  • Oraz ten najbardziej spamowe, czyli, wybijamy okno, wchodzimy na chatę i robimy imprezę. Cegła to narzędzia do spamowania z recaptcha, wszystkie link injection i inne ciekawe rzeczy.

Podsumowanie

Pozycjonowanie jest moralne tak samo, jak wszystkie inne działania promocyjne.

SEO (optymalizacja) w dzisiejszych czasach nabiera kolorów i działa już praktycznie tylko na korzyść użyszkodników.

Linkbulding? Wszystko zależy od nas. To ty zdecydujesz w jak sposób chcesz działać i jakich środków zamierzamy do tego użyć.
Fakt, fach ten to  nie jest  ratowanie dzieci w Afryce, jednak w porównaniu z  podprogowymi reklamami telewizyjnymi czy tołkowaniem 1000 razy sloganów reklamowych w radio to te „nasze pozycjonowanie” nie wygląda tak źle…

Jak zwykle, zapraszam do dyskusji i komentowania!

Google uwarunkuje wyniki wyszukiwań od naszych min?

Jak często przeszukujesz sieć za pomocą wyszukiwarki Google w telefonie? Skąd wiesz, czy przypadkiem „wielki brat” nie obserwuję Ciebie z za drugiej strony ekranu i nie bada czy podobają Ci się wyniki wyszukiwań?Czy wyraz zadowolenia lub dezaprobaty z wyników wyszukiwania będzie kolejnym czynnikiem kształtującym kolejność pojawiających się nam stron?

O co tu w ogóle chodzi?

Poruszam ten temat, ponieważ na co dzień w pracy zajmuję się „badaniem wyników wyszukiwania”. Podstawowy i pierwszy algorytm regulujący te zagadnienie opierał/a się na sieci linków.

Mówiąc krótko, lakonicznie i dla niewtajemniczonych, każdy link z innej strony, był/jest liczony, jako głos, a ta strona, która ma ich najwięcej wygrywa. Podstawową zasadą było to, że link był „głosem potwierdzenia i zaufania” edytorskiego dokumentu. Edytor a zarazem odbiorca uważał coś za wiarygodne źródło wiedzy, a link do źródła stawał się tego potwierdzeniem. W taki sposób strony najbardziej wiarygodne, zaufane i cytowane pojawiały się na pierwszej stronie wyszukiwań.

Jednakże wraz z rozwojem sieci, wydawcy (twórcy stron) dowiedzieli się o mocy, jaką niosą za sobą linki przychodzące….

[alert-success]Po więcej http://sylwesterjezierski.pl/co-nalezy-wiedziec-o-wyszukiwarkach-i-pozycjonowaniu/[/alert-success]

Z tego powodu nasz potentat zaczął wprowadź coraz nowsze i bardziej wysublimowane algorytmy, które wspierały firmę w ich „walce o adekwatność wyników„.

Wracając do tematu. Nowo opublikowane patent Google opisuje technologię, która miałaby wpływać na kolejność stron opierając się na wskaźnikach biometrycznych satysfakcji użytkownika lub ujemnego sprzężenia zwrotnego poszukującego. Innymi słowy;

Google miałoby śledzić zadowolenie lub niezadowolenie użytkownika wchodzącego w reakcję z listą wyników wyszukiwania i korzystając z uczenia maszynowego budować model oparty na tej satysfakcji. Odpowiednia walidacja miałaby podnieść lub opuści kolejność pojawiających się stron.

Jak to miałoby działać?

Poziom satysfakcji byłby oparta na śledzeniu i pomiarze parametrów biometrycznych uzyskanych po prezentacji wyników wyszukiwania użytkownikowi. Pomoże to ustalić, czy nie wywołują one ujemnej reakcji u użytkownika. Google miałoby tu korzystać np. z kamery i innych urządzeń zbierających mikrodane.

B98U3TIFDJ

Na przykład:Jeżeli ktoś szuka informacji na temat ulubionego artysty a pierwsza strona okazała się oszukańczym przekierowaniem, to Google zanotuję wyraz naszego niezadowolenia. Taka reakcja może być postrzegane jako negatywny sygnał przez wyszukiwarkę, co może skutkować obniżeniem pozycji danego wyniku.

Co ciekawe system ma badać nie jeden a więcej parametrów biometrycznych:

  • Podwyższoną temperaturę ciała
  • Zwężenie powiek
  • Obrót oczami
  • Zaczerwienienie twarzy
  • Zwiększenie częstotliwości mrugania
  • Zwiększenie bicia serca

Nazwa patentu: Ranking Query Results Using Biometric Parameters

Wynalazcy: Jason Sanders, Gabriel Taubman

Uprawniony do patentu: Google

Nr patentu US 20160103833

Opublikowano 14 kwietnia 2016

Zapisano: 28 luty 2013

Podsumowanie

Choć wielu z was może to przerażać to należy pamiętać, że wyniki wyszukiwania już od dawna są do nas dopasowywane (personalizowane). Google czyta wasze maile, pamięta co wyszukiwałeś i „wie co jadłeś na śniadanie„. W świecie SEO już od jakiegoś czasu mówi się o wpływie kliknięć w poszczególne wyniki(z ang. CTR) na kolejność wyświetlania stron. Te klikane najczęściej miałby być uznawane za najbardziej trafne a ich pozycja odpowiednio podniesiona. Choć obie informację nie są oficjalnie potwierdzone, to jedynym sposobem na spokojny sen dla  twórców jest skupienie się na tworzeniu konkretnych oraz wartościowych treści kreowanych z myślą o użyszkodni …..użytkowniku.

Źródło:

http://www.seobythesea.com/2016/04/satisfaction-future-ranking-signal-google-search-results/

Jak stworzyć i gdzie wysłać notkę prasową?

Stworzenie komunikatu prasowego to jedno. Dystrybucja to zupełnie inna sprawa.

W internetowym kociołku, w którym o uwagę każdego użytkownika walczy setki mediów naraz, a reklama wychyla się zza każdej zakładki, ciężko jest znaleźć miejsce, w którym nasza notka będzie umieszczona i przeczytana. Szczególnie jeśli jesteśmy mało firmą, która nic nie znaczy, a to co mamy do powiedzenia, nie jest rewolucją. I do tego chcemy zrobić to zupełnie za darmo, albo mocno po kosztach.

Jest to jednak możliwie. W jaki sposób? Podpowiadam!

1. Notka prasowa na serwisie branżowym

To jedna z najpewniejszych dróg – im węższa dziedzina, którą zajmuje się portal, tym większe prawdopodobieństwo, że umieszczą na swoich łamach nasz tekst. Specjalistyczny serwis zazwyczaj również trafia idealnie w naszą grupę docelową, a więc szansa na konwersję będzie tutaj najwyższa.

Media specjalistyczne tego typu to również blogi, do których również warto uderzyć, jeśli ich zasięg jest odpowiednio wysoki.

Mogą tu pojawić się linki brandowe, do wydarzeń lub bezpośrednio do produktów znajdujących się na twojej stronie.

Tu wykorzystać można:

  • bezpośredni kontakt z wydawcą
  • Whitepress (artykuły sponsorowane)

Jeżeli naprawdę zależy nam na publikacji to dla każdego z wydawców powinniśmy przygotować oddzielną przeredagowaną notkę.

Podsyłam również ciekawy link o tym Jak nie komunikować się z wydawcami.

http://searchengineland.com/manual-link-buildings-7-worst-outreach-offenses-245688

Nie wspominając tu nawet o algorytmie Panda który już od dawna „poluję” na portale których jedyną działalnością było przekopiowywanie treści z innych stron. 

2. Wyspecjalizowane agencje PR

Na rynku znajduje się wiele agencji, które specjalizują się w relacjach firma-prasa. Niestety niewiele z nich podchodzi do sprawy w 100% kompleksowo, ale warto próbować. Zanim podejmiemy się współpracy, wyciągnijmy więc tyle, ile się da – na czym polega konkretna usługa i co jest po naszej stronie? Czasem taka realizacja obejmuje jedynie podsunięcie bazy dziennikarzy i gazet, które ewentualnie zgodziłyby się na publikację. Nie muszę mówić, że taki research zajmie nam kilka godzin. Nie warto.

3. Agregatory

Są jeszcze miejsca w sieci, w których umieszcza się wszystko, bez specjalnego zwracania uwagi na jakość i tematykę.

Generalnie tego typu portale są i lepsze i gorsze – niektóre całkiem przyzwoite, inne z wylewającymi się reklamami i artykułami, w których o znalezienie wspólnego mianownika raczej trudno. Jest to raj dla pozycjonerów, stąd droga jest trochę kręta, obciążona pewnym ryzykiem i raczej taką publikacją nigdzie się nie pochwalimy, ale spróbować zawsze można.

Oto kilka przykładowych portali

  • Brandnews
  • PRoto
  • PressOffice
  • Newseria
  • Innews

4. Notka prasowa we własnych kanałach komunikacji

Funkcjonowanie każdej firmy w dzisiejszej rzeczywistości internetowej to ciągłe dzielenie się contentem. Tak teraz pozycjonujemy, tak zwiększamy sprzedaż, tak gromadzimy i aktywizujemy społeczność wokół naszej marki.

Prowadzenie własnych (skutecznych!) kanałów komunikacji to rzecz nie byle jaka – kosztuje wiele trudu i nakładów finansowych. Jest to jednak opłacalne. Newslettery, blog firmowy, social media, aktualności na stronie – to kanały wewnętrzne, o które warto zadbać.

Im lepszej jakości notki prasowe, tym użytkownicy chętniej będą je udostępniać, przesyłać sobie dalej i wirusowo rozprzestrzeniać nasz cenny content, a wraz z nim naszą ofertę.

Nie ukrywajmy – darmowa publikacja notki prasowej jest obecnie niemal nieosiągalna. Duże portale mają dużych klientów, mali blogerzy czytali Pana Kominka (przepraszam, Jasona Hunta) i czują, że ich 3 wpisy na blogu są warte kilkaset złotych.

Pomagają dobrze podtrzymywane relacje biznesowe, niezły kontakt z dziennikarzami i rozbudowane własne kanały komunikacji. Nie mówiąc oczywiście o samej jakości udostępnianego materiału  – bez tego ani rusz.

Jeżeli czujemy się na tyle duzi możemy również stworzyć swoje własne wirtualne biuro prasowe.

Może znaleźć się wśród zasobów naszej strony jako oddzielna zakładka np:

  • https://www.cubegroup.pl/biuro-prasowe

Bądź  funkcjonować zupełnie oddzielnie np:

  • https://www.whitepress.pl/epr
  • http://www.futurepr.pl/oferta/wirtualne-biuro-prasowe/
  • http://www.newslink.pl/
  • https://prowly.com/

Wszystko to ma służy nie tylko do budowaniu PR ale również link-buldingu. Przy każdej opublikowanej notce prasowej mogą pojawiać się linki. I to nie byle jakie linki…

Google kasuje agencji 66 kont klientów Google Moja Firma

Jednej z agencji internetowej, która miała zarejestrowane ponad 60 kont Google Moja Firma  ( jako właściciel nie jako menadżer) przydarzyła się nie lada niespodzianka.

Pewnego dnia spółka z Mountain View zawiesiła wszystkie zarządzane przez nich konta z powodu podejrzenia jednego z nich o spam.

Jak donosi Site Search Engine Roundtable nieszczęśliwa agencja internetowa, straciła 66 kont Google Moja Firma za jednym uderzeniem. Sami poszkodowanie fakt uznają za wątpliwą praktykę. W rzeczywistości spam był związany z jednym określonym adresem jednakże „oberwało każde konto”.

Musimy pamiętać, że istnieje kilka poziomów zarządzania kontem MyBusiness w tym „właściciela” i „menadżera”. Status właściciela musi posiadać klient, NIGDY agencja obsługująca i aktualizująca konto.

Ustrzega to też przed problemem klientów w przypadku zmiany usługodawcy… Konto „menadżera” dla agencji ma praktycznie te same prawa.

W przypadku o którym mowa powyżej wydaje się, że agencja była zarejestrowana, jako właściciel wszystkich kont swoich klientów, co nie jest zalecane przez Google. Więc problem na jednym z kont dotknął wszystkich wizytówek tego samego właściciela.

Cała dyskusja https://www.en.advertisercommunity.com/t5/Verification/account-suspended-including-all-listings-with-no-explanations/m-p/526659

Morał z tej historii: dentyści, restauratorzy, rzemieślnicy i każda firma, która chce uzyskać lokalną widoczność za pośrednictwem firmowego konta Google, musicie zapamiętać, że to wy jesteście właścicielem konta, a nie zewnętrzna agencja.

Agencji nie straszę, bo każdy zrobi jak uważa. Moim zdaniem to przesada jednakże przypadek ten daję mi sporo do myślenia.

Oczywiście nie winie tu usługodawców. Klientów zazwyczaj nie interesuje aktywne prowadzenie takich kont, a tym bardziej groźnie brzmiące „administracje strony”, „hasła do zapamiętania”, „loginy” i inne przeklęte rzeczy….

Nie zmienia to faktu, że trzeba to zmienić. Klient ma być świadomy procesu budowania swojej aktywności w sieci oraz musi starać się w nim uczestniczyć. Każdy potrafi robić zdjęcia, coś opowiedzieć i zapisać sobie w kalendarzyku kilka haseł. Wystarcz tylko trochę chęci..

 

Darmowy ebook o link buildingu w kolorze #CCC od Lexy

Każda osoba rozpoczynająca przygodę z pozycjonowaniem stron internetowych dochodzi wcześniej czy później do momentu, w którym nie ma już pomysłu na nowe źródła na pozyskiwanie linków.

Być może pomocą okaże się darmowy Ebook Marty Gryszko „Link building w kolorze #CCC”, który kilka dni temu udostępniony został na jej blogu.

Ebook składa się z 30 stron zawierających około 23 różne sposoby na pozyskiwanie linków pozycjonujących z mocno zróżnicowanych źródeł. Lexy w sposób krótki i zwięzły przedstawia skąd pozyskiwać linki, jak je pozyskiwać oraz w jaki sposób wyszukiwać serwisy, które umożliwią zamieszczenie w nich linków.

Co znajdziemy w środku Ebooka?

lexy-link-building-w-kolorze-cccW dokumencie znajdziemy szczegółowe informacje na temat wielu popularnych i mniej popularnych metod linkowania, które zostały w sposób konkretny omówione. Ebook zawiera konkretne informacje na temat tego jak oraz z jakich źródeł pozyskiwać linki do stron internetowych.

Według mnie szczególnie warto poświęcić chwilę rozdziałom o tematyce odzyskiwania linków, gdzie Lexy dzieli się technikami pozwalającymi na sprawne wyszukiwanie i aktualizację niedziałających odnośników, podlinkowywanie wzmianek o serwisie czy pozyskiwaniu linków, które zdobyć można ze względu na prawa autorskie. Metody te są niezwykle skuteczne, szczególnie w przypadkach, kiedy mamy okazję pracować nad serwisem z długim stażem, o którym sporo się mówi. Techniki te pozwolą na pozyskanie sporej ilości bardzo dobrych jakościowo linków.

O to fragment rozdziału dot. wyszukiwania wzmianek o serwisie:

Jak szukać skopiowanych materiałów?

Pierwsza sprawa to korzystanie z narzędzia http://tynt.com/ które do skopiowanego tekstu dokleja fragment w postaci: Materiał pochodzi ze strony [adres strony]. Tekst może być dowolny, a ustawia się go podczas instalacji skryptu na stronie (zakładka Settings). Za każdym razem, kiedy ktoś skopiuje fragment tekstu z Twojej strony, dokleja się do niego notka autorska wraz z linkiem…

Oprócz informacji, co gdzie i jak, ebook właściwie w każdym punkcie zawiera informację o tym, z jakich narzędzi warto skorzystać, aby usprawnić sobie pracę.

Poznaj, znajdź, pozyskaj link

Są to trzy punkty, według których zbudowany został cały dokument.

Każda z metod zawiera: krótki wprowadzający opis (pozwalający na zrozumienie jej idei i przeznaczenia), instrukcję dotyczącą wyszukiwania serwisów, z których pozyskany zostanie link oraz informację o tym w jaki sposób pozyskiwać linki z danego typu serwisów.

Każdy z punktów omówiony zostaje krótko i konkretnie, co powoduje, że cały dokument czyta się szybko i przyjemnie.

29 stron konkretnych informacji o link buildingu

Marta na 30 stronach ulokowała ogromną ilość wiedzy i pomysłów na skuteczny link building – od linków z for, blogów, profili czy katalogów firm– po niestandardowe metody linkowania jak Egobaiting czy informację na temat tworzenia własnego zaplecza pozycjonerskiego orazwyszukiwanie i przechwytywanie domen pod tego typu serwisy. Niewątpliwym plusem jest tutaj również to, że w dokumencie prawie każda z metod omówiona została na przykładzie narzędzi, które można wykorzystać do automatyzacji swojej pracy.

[alert-success]Pełną wersję dokumentu można otrzymać na e-mail poprzez wypełnienie formularza na stronie: http://www.lexy.com.pl/blog/darmowy-poradnik-o-link-buildingu[/alert-success]

Rankbrain-Google oddaje swój biznes w ręce sztucznej inteligencji?

Google zaimplementowała RankBrain -jeden z najważniejszych sygnałów rankingów- już ponad rok temu. Podobno do tej pory przyczyniły się do poprawy wyników wyszukiwania ponad połowy zapytań.

[alert-success]O samej implementacji wspomniałem we wpisie: Google staję się coraz lepsze w kwestii zrozumienia zapytań [/alert-success]

Przyglądając się temu, co dzieję się na zachodzie (wśród anglofonów) warto zwrócić uwagę na publikację agencji Stone Temple Consulting, która już od kilku lat tworzy niektóre z najbardziej interesujących badań dotyczących wyników wyszukiwania w Google.

Te ostatnie stały się szczególnie obiektem mojego zainteresowania, ponieważ dotyczyły nie czego innego, jak algorytmu RankBrain.

[alert-success]Link do artykułu w wersji angielskiej RankBrain: A Study to Measure Its Impact[/alert-success]

W badaniu zebrano i porównano dane ponad 500,000 zapytań przed i po wdrożeniu algorytmu RankBrain.

Według firmy, i o ile mi wiadomo, jest to na ten czas jedyne* w swoim rodzaju badania tego algorytmu.

*Jeżeli macie inne przykłady serdecznie zapraszam do komentarzy.

Według „badaczy”  RankBrain rozumie lepiej taki sformułowania jak: co to jest, kto jest, gdzie jest, bez, nie, oraz przelicz(convert).

 

RankBrain została ujawniona w październiku prawie znikąd. Nie dowiedzieliśmy się o nim w oficjalnym ogłoszeniu, ale z wywiadu Bloomberg z Gregiem Corrado(senior research scientist w Google).

[alert-success]Link do oryginalnego wywiadu Google Turning Its Lucrative Web Search Over to AI Machines [/alert-success]

W wywiadzie powiedział on, że Google wprowadziło algorytm na szeroką skalę na początku roku i szybko stał się trzecim najważniejszym sygnałem w algorytmie rankingującym Google. Zanim jednak przyjrzymy się bliżej ustaleniom Stone Temple, oto krótkie podsumowanie tego czego można się dowiedzieć  o RankBrain z tej krótkiej rozmowy.

Rankbrain w pigułce

  1. RankBrain jest trzecim najważniejszym sygnałem ranking w wyszukiwarce Google.
  1. RankBrain został wdrożony kilka miesięcy przed październikiem.
  1. RankBrain wykorzystuje sztuczną inteligencję do przetwarzania języka pisanego na elementy matematyczne (wektory), które algorytm może lepiej „zrozumieć”.
  1. Jeżeli RankBrain widzi słowo / frazę, której nie „kojarzy” to „domyśla się” maszynowo jakie te słowo / fraza może mieć znaczenie.
  1. RankBrain sprawdza się dobrze z frazami wyszukiwań, których wcześniej nie widział.
  1. RankBrain jest lepszy niż ludzie (nawet od Googlarzy) w zgadywaniu tego, co Google będzie „rankowało”, jako numer jeden dla różnych zapytań.
  1. RankBrain jest pierwszym algorytmem związanym z wynikami, który faktycznie uczy się we własnym zakresie.
  1. RankBrain był tak skuteczny, że inżynierowie Google byli zaskoczeni, jak dobrze zadziałał.

 

CEO Stone Temple Eric Enge  sugeruje, że Google może używać RankBrain by kształtować prezentowanie snippetów oraz warunkuję wyzwalanie map tam gdzie nie było ich wcześniej. Oto kilka ciekawych zdań:

„Zgodnie z przewidywaniami, jednym z najczęstszych pytań, które jest mi zadawne to jak RankBrain wpłynie na  SEO”

(…)

„Prawdę mówiąc, w tej chwili, nie ma zbyt wiele wpływu w ogóle. RankBrain po prostu dopasowywuję lepiej zapytań użytkowników do stron internetowych, więc prawdopodobnie będziemy teraz mniej zależni od posiadania wszystkich słów z zapytania użytkownika na swojej stronie.

Ponadto, trzeba  zrobić jeszcze badanie słów kluczowych, aby można było zrozumieć, jak kreować strony tematyczne (i czym jest obszar tematyczny strony )” dodaje. „Zrozumienie preferowanego języka naszego tagretowanego użytkowników będzie miało zawsze sens, i to bez względu na istnienie silniki wyszukiwania. Jeżeli jeszcze tak nie robisz to zaleca się położyć większy nacisk na wykorzystywanie języka prawdziwiego/ naturalnego na swoich stronach internetowych.

Według Enge wprowadzenie RankBrain zwiększy ogólną jakości wyszukiwania oraz wesprze algorytm wyszukiwania lokalnego.

A oto infografika z przykładami polepszenia wyników:

wpływ rankbrain na seo
Grafika przedstawiająca wpływ rankbrain na seo

Link do wersji infografiki w pełnej roździelczości https://www.stonetemple.com/wp-content/uploads/2016/03/rankbrain-infographic-version-2.png

Jak to wpłynie na korzystanie z wyszukiwarki i oglądalność innych serwisów?

Tak jak wspominał Enge i jak zauważyli autorzy wpisu na Blogu Melonet.pl „24 pytania do Google – badamy inteligencję, czyli funkcje Answer box i RankBrain.”  Algorytm może być odpowiedzialny za tzw. Google Rich Answers i Google Answer Box.

Jak da się zauważyć, już w tej chwili wiele potrzebnych użytkownikowi informacji uzyskać można bezpośrednio od Google, bez żadnych pośredniczących stron WWW. Trzeba przyznać, że możliwości algorytmu RankBrain oraz Answer Box są imponujące.

Jak wielki ma to wpływ na wyniki wyszukiwań można szybko sprawdzić na poniższej infografice.

infografika

Postawili oni również bardzo ciekawe hipotezy z którym nie można się nie zgodzić:

Wprowadzane tych rozwiązań jest tworzone z myślą dla użytkowników – ich wygody i konieczności szybkiego pozyskania wiedzy.

Ma to jednak również swoje ciemne strony

Wprowadzane zmiany mają na celu zatrzymanie użytkownika w ekosystemie Google. Informację otrzymujemy bez przechodzenia na inną stronę. (…)To wszystko jeszcze bardziej uzależnia nas – użytkowników od wszystkich usług Google. Oczywiste jest również, że związane będzie to ze spadkiem ruchu na wielu stronach. Pogodowych, informacyjnych etc.

Dziękuję za UWAGĘ!  Jeżeli posiadasz ciekawą informację na ten temat, zachęcam do komentowania. Z wielką chęcią dodam każdą ciekawą i wartościową wzmiankę  do samego artykułu.

 

 

 

Dlaczego warto zatrudnić profesjonalnego Copywritera?

Prowadząc firmę musimy nauczyć się, że nie wszystko jesteśmy w stanie zrobić sami. Czynności takie jak pisanie ofert handlowych, wymyślanie storytellingów czy tworzenie treści na nasze strony internetowe zabierają ogromnie dużo czasu i wymagają od nas bardzo konkretnej wiedzy i doświadczenia z zakresu marketingu.

[alert-success]Czy spotykani w sieci ludzie mianujący się tytułem copywritera mogą stanowić skuteczną receptę na nasze tekstowe bolączki?[/alert-success]

Czym jest copywriting?

Problem z tym zawodem polega na tym, że ciężko określić, czym tak naprawdę zajmuje się profesjonalny copywriter. Na pewno pisaniem, ale czy to wszystko?

W Polsce nie znajdziemy niestety kierunku studiów, który mógłby wydać dyplom uprawniający do wykonywania tego zawodu. Częstym błędem jest sugerowanie się ukończoną przez niego polonistyką i dziennikarstwem, gdyż absolwenci tych kierunków nie posiadają elementarnej wiedzy z zakresu marketingu i sprzedaży, do których jest mu najbardziej po drodze.

Najogólniej rzecz ujmując możemy podzielić tę branżę na dwie odrębne grupy, które moim zdaniem w przyszłości będą dążyć ku sobie.

  1. Pierwsza z nich zajmuje się bardzo wartościowymi tekstami o charakterze marketingowym. Jej głównym celem jest sprzedaż oraz promocja produktów i usług. W zakres tej dziedziny wchodzi tworzenie nazw i sloganów, budowanie treści spotów reklamowych, pisanie profesjonalnych ofert handlowych i skutecznych mailingów, a także podejmowanie innych działań, które mają za zadanie sprzedawać tekstem. Taka praca wymaga od copywritera ogromnej pracy umysłowej wspartej całymi pokładami kreatywności.
  2.  Z drugiej strony możemy o tej branży mówić w odniesieniu do działań mających za zadanie wprowadzać treści do internetu. Nazywa się ją SEO Copywritingiem, gdyż jego głównym celem jest pisanie zoptymalizowanych treści na strony internetowe, mające za zadanie wzmocnić ich pozycjonowanie w wyszukiwarkach. Ten rodzaj copywritingu wymaga bardzo szybkiego pisania na klawiaturze, składnej pisowni i stylistyki, posiadania ogromnej wiedzy z wielu dziedzin oraz szybkiego przyswajania nowych tematów.

 

Niestety przez ogólnodostępny charakter tego zawodu i możliwość wykonywania go praktycznie przez każdego, jakość SEO Copywritingu w ostatnim czasie mocno się obniżyła.

[alert-success]Moim zdaniem jest to chwilowe zjawisko, gdyż ostatnie algorytmy wprowadzane przez Google wyraźnie promują treści dobrej jakości.[/alert-success]

 

Jaki wpływ ma jakość treści na pozycjonowanie naszej strony?

 

Ostatnio zewsząd słychać entuzjastyczne hasła „Content is King”. Jak już wspomniałem wcześniej Google przechodzi następny etap rozwoju swojej przeglądarki internetowej. Etap prowadzący do uzyskania lepszej jakości treści jaką możemy znaleźć w sieci. Nie trzeba być specem w dziedzinie SEO, aby zwrócić uwagę na fakt, jak bardzo rozwinął się internet na przestrzeni ostatnich lat. Wielu z nas żyje w trybie online. W internecie rozmawiamy, szukamy przepisów na obiad, robimy zakupy, wybieramy miejsce na wakacje, a także potrafimy się umówić na randkę z drugą osobą. To daje firmom ogromne możliwości reklamy, które umieszczając swoje treści w sieci chcą pozycjonować swoje strony na rożne słowa kluczowe używane przez ich potencjalnych klientów.

Dlatego pracownicy potentata z Doliny Krzemowej zdecydowali się na wprowadzanie algorytmów (m.in. Panda), których głównym zadaniem jest przyznawanie większej wartości stronom posiadającym dobre treści. Taki obrót spraw docenił copywriterów zajmujących się pisaniem na poważnie. Dlatego w przyszłości możemy spodziewać się mocnego przesiania tej branży, ponieważ zatrudnianie amatorów nie będzie się opłacało.

 

Trzeba zrozumieć, że pisanie tekstów od zawsze ma charakter ludzki i przede wszystkim powinien być skierowany do człowieka. Bez takiego podejścia nie damy rady zdobyć zaufania naszego odbiorcy, który szuka konkretnej odpowiedzi na postawione przez siebie pytania.

 

Dobry copywriter potrzebny od zaraz…

Przyszłość przeglądarek podąża w kierunku dobrej strony mocy tekstów, które są zarówno ciekawe dla czytelnika jak i dla robotów przemierzających strefę online. Dlatego warto się zastanowić nad wyborem dobrego Copywritera do stałej współpracy, gdyż taka inwestycja może się nam zwrócić wielokrotnie w przyszłości.

 

Autor: Jurek Czajkowski

logo-copytekst-2