Posts Tagged

Google

Co to jest Crawl Budget – Czy warto się nim przejmować?

Spis treści

  1. Czym jest Crawl Budget?
  2. Crawl rate limit, Crawl health i Crawl demand.
  3. Co wpływa na Crawl Budget?.
  4. Jak zmierzyć Crawl Budget?.
  5. Jak zmaksymalizować swój Crawl Budget?.
  1. Program Screaming Frog – dlaczego warto go użyć?.

 

Ostatnimi czasy zrobiło się głośno o pojęciu budżetu indeksowania. Jest ono kluczowe dla każdego profesjonalnego SEOwca i osób, które na poważnie zajmują się optymalizacją stron internetowych. W tekście postaram się odpowiednio jasno i precyzyjnie zgłębić to rozległe zagadnienie.

Czym jest Crawl Budget?

Budżet indeksowania witryn to swego rodzaju limiter, który zostaje nakładany na roboty Google. Indeksowanie i reindeksowanie obciąża serwery zarówno właścicieli witryn, jak i samego Google.

Jeżeli witryny są rozbudowane i zajmują sporo przestrzeni, a także automatycznie generują dynamiczne zasoby, wówczas ich indeksowanie nie należy do zbyt wydajnych procesów. Google uważa, że wprowadzenie budżetu indeksowania odciąża witryny i ułatwia użytkownikom swobodne poruszanie się po nich.

Crawl rate limit, Crawl health i Crawl demand

Na Crawl Budget składają się trzy ważne parametry – Crawl rate limit, Crawl demand i Crawl health. Zacznę od pierwszego z nich.

Crawl rate limit, czyli limit współczynnika indeksacji ogranicza maksymalną liczbę pobrań danych ze strony. Pisząc inaczej – limit współczynnika indeksacji ściśle określa ilość połączeń wykonywanych równolegle przez roboty Google, które indeksują daną stronę. Parametr ten wpływa również na interwały pomiędzy łączeniem się Googlebotów. Crawl rate limit może być ustawiany ręcznie w narzędziu Google Search Console. Częstotliwości indeksowania nie można zwiększyć. Zmniejszenia zaleca się podczas awarii i niespodziewanych obciążeniach serwera.

Crawl demand z kolei określa częstotliwość, z jaką witryna jest indeksowana. Parametr ten przekazuje robotom Google, że poszczególne strony wymagają częstszej opieki z ich strony. Na Crawl demand składa się popularność oraz ruch, którymi odznacza się strona. Poza tym kluczowa jest również aktualność danych oraz sama częstotliwość aktualizacji treści na stronach. Google przychylniej spogląda na witryny, które są często aktualizowane. Ustawienia tych częstotliwości dostępne były przez pewien czas, jednakże Google postanowiło zrezygnować z tego parametru.

Crawl health jest parametrem opisującym poprawność indeksacji. Gdy witryna odpowiada szybciej, sprawniej i ogólnie jest bardziej przyjazna dla robotów Google, wówczas te będą indeksować więcej. Jeżeli strona jest źle zoptymalizowana, limit indeksacji się zmniejsza, ponieważ maleje ilość połączeń nawiązywanych przez roboty.

Co wpływa na Crawl Budget?

Na budżet indeksowania wpływają wyżej wymienione parametry. Crawl Budget można opisać jako wypadową parametrów: crawl rate limit i crawl demand. Poza tym, podchodząc do tematu bardziej szczegółowo, Crawl Budget implikowany jest przez kilka czynników. Są to przede wszystkim:

identyfikatory sesji i nawigacja fasetowa, duplikowane treści wewnątrz struktury witryny, miękkie błędy na podstronach, nieskończona ilość podstron oraz słaby content lub spam. Ogólnie rzecz biorąc, wszystkie te problemy związane są z elementarną optymalizacją strony pod względem technicznym. Jeżeli zamierzasz poprawić Crawl Budget, zwróć uwagę, czy Twojej witryny nie trapią wyżej wymienione kłopoty.

Jak zmierzyć Crawl Budget?

Niektóre stare i obszerne witryny są dla robotów Google prawdziwym labiryntem. Im bardziej rozbudowana struktura strony, tym więcej backlinków będzie posiadać. Mogą być ich setki, a nawet tysiące i znacząco wpływają na częstotliwość wykonywanych wyszukań.

Nie do końca wiadomo, w jaki sposób można zmierzyć Crawl Budget. Niemniej, wydaje się, że zgodna z prawdą jest hipoteza głosząca, że budżet indeksowania witryny jest mniej więcej proporcjonalny do liczby backlinków podzielonych na liczbę stron witryny.

Jak zmaksymalizować swój Crawl Budget?

Metod na poprawę budżetu indeksowania jest kilka. Oczywiście znaczącą poprawę odczujesz, gdy usuniesz problemy z punktu 3, które dotyczą Twojej strony. Poza tym zagadnienie związane z maksymalizacją budżetu indeksowania witryny lepiej opisują poniżej podane elementy związane ze strukturą i funkcjonowaniem witryny.

Struktura strony i linki wewnętrzne

Prawidłowa architektura strony oraz dobrze zagnieżdżane wewnętrzne linki w znaczący sposób wpływają na tempo indeksacji. Odpowiednie kształtowanie witryny wraz z nawigacją fasetową i kategoryzowaniem struktury pozytywnie odciśnie się na budżecie indeksowania Twojej strony. Warto zadbać również o autorytet i zaufanie poprzez dopasowywanie struktury strony do strategii linkowania.

Uszkodzone linki i przekierowania

Uszkodzone link i nieprawidłowe przekierowania mocno ograniczają Crawl Budget. Na szczęście można je łatwo naprawić. Za każdym razem, gdy robot podąży za uszkodzonym linkiem, natrafi na błąd 404, co zmarnuje jego „czas” i zredukuje Crawl demand i crawl limit. Zdobądź się na analizę witryny i identyfikację uszkodzonych linków i szybko je napraw.

Wiedz, że zbyt długie łańcuchy przekierowań również stanowią ograniczenie dla Crawl Budget. Warto skrócić te długie ścieżki i podróże robotów po Twojej witrynie. Tutaj pomocny może okazać się program Screaming Frog – o którym nieco niżej.

Prędkość ładowania strony

Podstawowe zagadnienie techniczne w pozycjonowaniu witryny. Im szybciej witryna będzie się wczytywać, tym roboty stracą mniej czasu na jej indeksacji. Poza tym sprawnie wczytująca się strona jest atrakcyjna również dla użytkowników. Page Speed swojej strony możesz przetestować np. narzędziem dostarczanym przez kalifornijskiego giganta – Google PageSpeed Insights.

Usuwanie duplikowanych treści

Duplikowanie stron to ogromne marnotrawstwo zasobów indeksowania. W przypadku budżetowania indeksowania nawet tag kanoniczny niewiele pomoże. Duplikowane strony i tak będą skanowane przez roboty Google, co w konsekwencji obniży wydajność ich pracy. Im więcej zduplikowanych stron usuniesz, tym lepiej dla Ciebie.

Mapa witryny

Mapa strony w postaci pliku HTML lub XML ma ogromną wartość zarówno dla SEO, jak i dla budżetu indeksowania. Ułatwia poruszanie się po witrynie Googlebotom – głównie poprzez wskazywanie im wewnętrznych połączeń między stronami witryny. Zwróć uwagę, aby mapa witryny nie zawierała zduplikowanych stron. Poza tym mapa nie powinna zawierać adresów URL z tagami „noindex” i „nofollow”, a także powinna być wolna od adresów URL niedozwolonych w pliku robots.txt

Plik robots.txt i analiza logów serwera

Pliki robots.txt kierują robotami Google. Przede wszystkim powinieneś blokować katalogi, których nie chcesz indeksować (Adminowy back-end lub strony CMS). Warto zablokować również strony logowania, (szczególnie w popularnych CMSach) które często „odpytwanie” są przez spamiarki. Nie marnuj zasobów indeksowania na te adresy. Google nie zaleca również indeksowania stron takich jak:

  • strony wyszukiwarki wewnętrznej
  • paginacja
  • sortowanie
  • zmiany widoku
  • filtry kategorii
  • linki z parametrami modyfikującym produkt

Aby lepiej zrozumieć dostosowanie pliku robots.txt do indeksowanych obszarów, warto również zdobyć się na przeanalizowanie logów serwera.

Program Screaming Frog – dlaczego warto go użyć?

Screaming Frog to jeden z programów do dokładnej analizy witryn. Dostępny jest na Windowsa, Linuxa i Maca. Program jest rozbudowany i powinien znaleźć się w biblioteczce każdego szanującego się SEOwca i webmastera. Licencja kosztuje około £100 rocznie.

Rekomenduję program jako świetne narzędzie do analizowania problemów i maksymalizacji związanych z budżetem indeksowania, a także przeprowadzania dokładnego audytu SEO. Z powodzeniem radzi sobie z optymalizacją każdego wymienionego we wcześniejszym punkcie aspektu. Sprawdzi się również w innych aspektach związanych z technicznym pozycjonowaniem witryn – np. audytem grafik, sprawdzaniem poprawności wdrożeń GSC i GA, wylistowaniem błędów związanych z URLami, czy ze znacznikami meta.

 

Autor tematuhauerpower studio / hauer mateusz – grafik na co dzień projektuje strony internetowe. W swojej pracy stawiający na minimalizm graficzny, wysoką użyteczność tworzonych rozwiązań.

 

Content marketing – odpowiedź na potrzeby „trudnych” marek

Każda marka, czy to bardziej, czy mniej atrakcyjna ma ten sam cel – osiągnąć sukces, czyli zostać zauważonym w morzu konkurencji. To samo dotyczy naszej przykładowej firmy, która na co dzień, jakby nie patrzeć zajmuje się wywozem nieczystości.

Jeśli firm podobnych, podobnie nieatrakcyjnych jak ona jest wiele i w związku z tym cierpią na brak zainteresowania, to czas wyjść do ludzi, dać się znaleźć i … polubić. Jak? Właśnie poprzez działania content marketingu.

Zacznijmy od strony internetowej!

Nie będziemy tu odkrywcami, jeśli powiemy, że dobra strona internetowa to okno na świat. I rzeczywiście, jeśli chce się być zauważonym, trzeba sobie to okno otworzyć i to bardzo szeroko. Strona jest wizytówką firmy i powinna być tak zaprojektowana, aby swoją estetyką zachęcała do pozostania dłużej i zapoznania się z ofertą. Potrzebna jest więc odpowiednia grafika. A gdy już internauta wejdzie, trzeba zainteresować go odpowiednią treścią.

I tu wkracza content marketing

  • Jak powinna wyglądać taka strona?
  • Co powinno być na niej zawarte?

Czy zwykły beczkowóz i nachalny tekst sprzedażowy „jesteśmy najlepsi, wywieziemy Twoje nieczystości szybko i fachowo” to jedyne, co może firmie asenizacyjnej zaoferować reklama?

bio-42609_960_720Oczywiście, że nie. Wokół takiej firmy można zbudować całkiem przyjemny, atrakcyjny wręcz kontekst. Na przykład skoncentrować się na ochronie środowiska, która w ostatnim czasie stała się modna, cool i trendy. Pokazać usługę z innej perspektywy i pod jej kątem stworzyć i grafikę, i ciekawe teksty.

Drogowskazy do strony, czyli słów kilka o link building

Jak sprawić, aby internauci trafiali na tę właśnie stronę? Co zrobić, aby pomimo wielu innych, podobnych stron, odwiedzana była ona chętnie i często? Najlepszym sposobem jest rozmieszczenie w sieci swoistych drogowskazów. Fachowo nazywa się to Link Building.

Polega to na zamieszczaniu na innych stronach, portalach wartościowych tekstów (np. porad, które rozwiązują konkretne problemy z użytkowaniem szamba) wraz z linkiem do naszej strony. Oczywiście ważne jest, aby linki umieszczane były na wartościowych blogach, serwisach tematycznych czy forach i by znajdowały się w otoczeniu równie ciekawych i zbieżnych tematycznie treści, które dostarczą czytelnikowi poszukiwanych informacji, czy ciekawych wiadomości.

Reklama szamba na Facebooku i YouTube ? Czyli jak wykorzystać social media

Jeśli firma chce być znaleziona, musi być tam, gdzie ludzie szukają. A dziś wielu szuka właśnie w mediach społecznościowych. Dlatego też błędem byłoby nie stworzyć profili stanowiących dopełnienie działań w obszarze content marketingu.

Przykładowy filmik instruktażowy na Youtube – pod spodem Q&A.

Kierując się zasadą spójności, tak ważnej w identyfikacji wizualnej firmy, należy profile takie prowadzić wykorzystując motyw, który nadaje charakter stronie www, a jednocześnie w sposób niebanalny, inteligentny, zaskakujący. Jak?

Chociażby prezentując usługi w kontekście dbania o czystość Polskiego Morza, a co za tym idzie, jakość wody, czy mięsa ryb, które w nim pływają.

Google AdWords – czyli, jak nie utonąć wśród konkurencji

Konkurencja zawsze była, jest i będzie i absolutnie nie należy się jej bać, ani tym bardziej zachowywać w stosunku do niej nieczysto. Dobra, uczciwa reklama pozwoli Ci skutecznie się wypromować, być o krok, a nawet dwa przed konkurencją. Doskonałym przykładem jest kampania Google AdWords, która pomoże w krótkim czasie precyzyjnie trafić do interesującej Cię grupy odbiorców. Dzięki niej szybko rozpropagujesz swoją firmę czy usługi, zwiększysz rozpoznawalność marki, zbudujesz listę osób zainteresowanych np. Twoimi usługami a pośrednio zwiększysz ruch na stronie internetowej.

 Agencja content marketingowa tworząc wokół firmy odpowiedni content jest w stanie uczynić ją nie tylko znaną, ale i ciekawą, a nawet modną. Odpowiednio dobrane słowa, ujęte w odpowiednim kontekście i opublikowane we właściwym miejscu potrafią wywindować firmę z pozycji „kopciuszka” na pozycję „księżniczki”. Trzeba tylko dostrzec drzemiący w niej potencjał i umiejętnie go wykorzystać.

Google kasuje agencji 66 kont klientów Google Moja Firma

Jednej z agencji internetowej, która miała zarejestrowane ponad 60 kont Google Moja Firma  ( jako właściciel nie jako menadżer) przydarzyła się nie lada niespodzianka.

Pewnego dnia spółka z Mountain View zawiesiła wszystkie zarządzane przez nich konta z powodu podejrzenia jednego z nich o spam.

Jak donosi Site Search Engine Roundtable nieszczęśliwa agencja internetowa, straciła 66 kont Google Moja Firma za jednym uderzeniem. Sami poszkodowanie fakt uznają za wątpliwą praktykę. W rzeczywistości spam był związany z jednym określonym adresem jednakże „oberwało każde konto”.

Musimy pamiętać, że istnieje kilka poziomów zarządzania kontem MyBusiness w tym „właściciela” i „menadżera”. Status właściciela musi posiadać klient, NIGDY agencja obsługująca i aktualizująca konto.

Ustrzega to też przed problemem klientów w przypadku zmiany usługodawcy… Konto „menadżera” dla agencji ma praktycznie te same prawa.

W przypadku o którym mowa powyżej wydaje się, że agencja była zarejestrowana, jako właściciel wszystkich kont swoich klientów, co nie jest zalecane przez Google. Więc problem na jednym z kont dotknął wszystkich wizytówek tego samego właściciela.

Cała dyskusja https://www.en.advertisercommunity.com/t5/Verification/account-suspended-including-all-listings-with-no-explanations/m-p/526659

Morał z tej historii: dentyści, restauratorzy, rzemieślnicy i każda firma, która chce uzyskać lokalną widoczność za pośrednictwem firmowego konta Google, musicie zapamiętać, że to wy jesteście właścicielem konta, a nie zewnętrzna agencja.

Agencji nie straszę, bo każdy zrobi jak uważa. Moim zdaniem to przesada jednakże przypadek ten daję mi sporo do myślenia.

Oczywiście nie winie tu usługodawców. Klientów zazwyczaj nie interesuje aktywne prowadzenie takich kont, a tym bardziej groźnie brzmiące „administracje strony”, „hasła do zapamiętania”, „loginy” i inne przeklęte rzeczy….

Nie zmienia to faktu, że trzeba to zmienić. Klient ma być świadomy procesu budowania swojej aktywności w sieci oraz musi starać się w nim uczestniczyć. Każdy potrafi robić zdjęcia, coś opowiedzieć i zapisać sobie w kalendarzyku kilka haseł. Wystarcz tylko trochę chęci..

 

Rankbrain-Google oddaje swój biznes w ręce sztucznej inteligencji?

Google zaimplementowała RankBrain -jeden z najważniejszych sygnałów rankingów- już ponad rok temu. Podobno do tej pory przyczyniły się do poprawy wyników wyszukiwania ponad połowy zapytań.

[alert-success]O samej implementacji wspomniałem we wpisie: Google staję się coraz lepsze w kwestii zrozumienia zapytań [/alert-success]

Przyglądając się temu, co dzieję się na zachodzie (wśród anglofonów) warto zwrócić uwagę na publikację agencji Stone Temple Consulting, która już od kilku lat tworzy niektóre z najbardziej interesujących badań dotyczących wyników wyszukiwania w Google.

Te ostatnie stały się szczególnie obiektem mojego zainteresowania, ponieważ dotyczyły nie czego innego, jak algorytmu RankBrain.

[alert-success]Link do artykułu w wersji angielskiej RankBrain: A Study to Measure Its Impact[/alert-success]

W badaniu zebrano i porównano dane ponad 500,000 zapytań przed i po wdrożeniu algorytmu RankBrain.

Według firmy, i o ile mi wiadomo, jest to na ten czas jedyne* w swoim rodzaju badania tego algorytmu.

*Jeżeli macie inne przykłady serdecznie zapraszam do komentarzy.

Według „badaczy”  RankBrain rozumie lepiej taki sformułowania jak: co to jest, kto jest, gdzie jest, bez, nie, oraz przelicz(convert).

 

RankBrain została ujawniona w październiku prawie znikąd. Nie dowiedzieliśmy się o nim w oficjalnym ogłoszeniu, ale z wywiadu Bloomberg z Gregiem Corrado(senior research scientist w Google).

[alert-success]Link do oryginalnego wywiadu Google Turning Its Lucrative Web Search Over to AI Machines [/alert-success]

W wywiadzie powiedział on, że Google wprowadziło algorytm na szeroką skalę na początku roku i szybko stał się trzecim najważniejszym sygnałem w algorytmie rankingującym Google. Zanim jednak przyjrzymy się bliżej ustaleniom Stone Temple, oto krótkie podsumowanie tego czego można się dowiedzieć  o RankBrain z tej krótkiej rozmowy.

Rankbrain w pigułce

  1. RankBrain jest trzecim najważniejszym sygnałem ranking w wyszukiwarce Google.
  1. RankBrain został wdrożony kilka miesięcy przed październikiem.
  1. RankBrain wykorzystuje sztuczną inteligencję do przetwarzania języka pisanego na elementy matematyczne (wektory), które algorytm może lepiej „zrozumieć”.
  1. Jeżeli RankBrain widzi słowo / frazę, której nie „kojarzy” to „domyśla się” maszynowo jakie te słowo / fraza może mieć znaczenie.
  1. RankBrain sprawdza się dobrze z frazami wyszukiwań, których wcześniej nie widział.
  1. RankBrain jest lepszy niż ludzie (nawet od Googlarzy) w zgadywaniu tego, co Google będzie „rankowało”, jako numer jeden dla różnych zapytań.
  1. RankBrain jest pierwszym algorytmem związanym z wynikami, który faktycznie uczy się we własnym zakresie.
  1. RankBrain był tak skuteczny, że inżynierowie Google byli zaskoczeni, jak dobrze zadziałał.

 

CEO Stone Temple Eric Enge  sugeruje, że Google może używać RankBrain by kształtować prezentowanie snippetów oraz warunkuję wyzwalanie map tam gdzie nie było ich wcześniej. Oto kilka ciekawych zdań:

„Zgodnie z przewidywaniami, jednym z najczęstszych pytań, które jest mi zadawne to jak RankBrain wpłynie na  SEO”

(…)

„Prawdę mówiąc, w tej chwili, nie ma zbyt wiele wpływu w ogóle. RankBrain po prostu dopasowywuję lepiej zapytań użytkowników do stron internetowych, więc prawdopodobnie będziemy teraz mniej zależni od posiadania wszystkich słów z zapytania użytkownika na swojej stronie.

Ponadto, trzeba  zrobić jeszcze badanie słów kluczowych, aby można było zrozumieć, jak kreować strony tematyczne (i czym jest obszar tematyczny strony )” dodaje. „Zrozumienie preferowanego języka naszego tagretowanego użytkowników będzie miało zawsze sens, i to bez względu na istnienie silniki wyszukiwania. Jeżeli jeszcze tak nie robisz to zaleca się położyć większy nacisk na wykorzystywanie języka prawdziwiego/ naturalnego na swoich stronach internetowych.

Według Enge wprowadzenie RankBrain zwiększy ogólną jakości wyszukiwania oraz wesprze algorytm wyszukiwania lokalnego.

A oto infografika z przykładami polepszenia wyników:

wpływ rankbrain na seo
Grafika przedstawiająca wpływ rankbrain na seo

Link do wersji infografiki w pełnej roździelczości https://www.stonetemple.com/wp-content/uploads/2016/03/rankbrain-infographic-version-2.png

Jak to wpłynie na korzystanie z wyszukiwarki i oglądalność innych serwisów?

Tak jak wspominał Enge i jak zauważyli autorzy wpisu na Blogu Melonet.pl „24 pytania do Google – badamy inteligencję, czyli funkcje Answer box i RankBrain.”  Algorytm może być odpowiedzialny za tzw. Google Rich Answers i Google Answer Box.

Jak da się zauważyć, już w tej chwili wiele potrzebnych użytkownikowi informacji uzyskać można bezpośrednio od Google, bez żadnych pośredniczących stron WWW. Trzeba przyznać, że możliwości algorytmu RankBrain oraz Answer Box są imponujące.

Jak wielki ma to wpływ na wyniki wyszukiwań można szybko sprawdzić na poniższej infografice.

infografika

Postawili oni również bardzo ciekawe hipotezy z którym nie można się nie zgodzić:

Wprowadzane tych rozwiązań jest tworzone z myślą dla użytkowników – ich wygody i konieczności szybkiego pozyskania wiedzy.

Ma to jednak również swoje ciemne strony

Wprowadzane zmiany mają na celu zatrzymanie użytkownika w ekosystemie Google. Informację otrzymujemy bez przechodzenia na inną stronę. (…)To wszystko jeszcze bardziej uzależnia nas – użytkowników od wszystkich usług Google. Oczywiste jest również, że związane będzie to ze spadkiem ruchu na wielu stronach. Pogodowych, informacyjnych etc.

Dziękuję za UWAGĘ!  Jeżeli posiadasz ciekawą informację na ten temat, zachęcam do komentowania. Z wielką chęcią dodam każdą ciekawą i wartościową wzmiankę  do samego artykułu.

 

 

 

Niezabezpieczone i zaspamione strony mogą być wykluczone z kalkulacji PR

Na niedawnym  hangoucie Google+, Google John Mueller powiedział, że strona może utracić zaufanie Google tak, że nie będzie przekazywać już wartości PageRank:

„W odniesieniu do PageRank, problem może pojawić się gdy widzimy naprawdę, że jest to miejsce z którego nie ma sensu aby przechodziła żadna moc PageRank. Następnie, na poziomie strony, możemy uznać, dobrze, nie będziemy przekazywać żadnej mocy PageRank z tego miejsca.

To może się zdarzyć na przykład, gdy uznamy, że jest to miejsce w którym ludzie spamują linkami od dłuższego czasu, może to być otwarte forum, na którym wszystkie linki są dofollow, i jest pełne śmieciowej treści.

W  tego rodzaju sytuacjach, możemy stwierdzić że, strona ma problemy, może nikt jej nie kontroluje, może właściciel  robi to celowo. Możemy uznać, że ta strona nie jest warta zaufania i możemy ją wykluczyć w odniesieniu do  obliczeń PageRank. ”

Bardzo swobodne tłumaczenie. Purystów zapraszam do wideo.

W takiej sytuacji „zagrożeni” są właściciel zhakowanych lub niezabezpieczonych stron na których od dłuższego czasu hulają boty i wszelkiego rodzaju spamiarki.

Więcej w w wideo:

Czas cytowanej wypowiedzi 5:34

W jakich branżach występuję najwyższe ryzyko działań ręcznych?

W jakich branżach występuję najwyższe ryzyko działań ręcznych?

Jak wiadomo od czasu do czasu na wyniki wyszukiwania spogląda swoim łaskawym wzrokiem SQT (Google Search Quality Team). Kształtują oni  wyniki wyszukiwania, stoją na straży „odpowiednich wyników”  i nadają regulacjom Google ludzkiej twarzy. Jednakże ich decyzję nie są w pełni subiektywne. Google raz na jakiś czas publikuję specjalne guideline’y (instrukcję ze wskazówkami związanymi ze sposobem oceny stron). Mimo tego, że nie jest to żaden gwarant to warto się z nim raz na jakiś czas zapoznać. Przedstawiam wam krótki interesujący mnie fragment. Tłumaczone tak na szybko więc, bez spiny.

„Wysokiej jakości  stron internetowe potrzebują ekspertyzy, aby być godne zaufania i wiarygodne w  danym temacie. Należy pamiętać, że istnieją strony „eksperckie”  wszystkich typów: plotki, moda, humor, Forum  Q & A itp. W rzeczywistości niektóre rodzaje informacji, znajdują się niemal wyłącznie na forach i dyskusjach, gdzie społeczność ekspertów może dostarczyć cennych informacji na konkretny tematy.

  • Wysokiej jakości porady lekarskie powinny pochodzić od osób lub organizacji o odpowiedniej wiedzy medycznej lub akredytacji. Wysokiej jakości porady medyczne lub informacje powinny być produkowane w formie pisemnej lub w profesjonalnym stylu i powinny być edytowany, przeglądane i aktualizowane na bieżąco.
  • Wysokiej jakości doradztwo finansowe, doradztwo prawne, doradztwo podatkowe, itd., Powinny pochodzić ze źródeł eksperckich i być przeglądane i aktualizowane.
  • Wysokiej jakości doradztwo na tematy takie jak przebudowa domu (który może kosztować tysiące dolarów) lub poradę w kwestiach wychowawczych ( rzeczy które mogą mieć wpływ na przyszłe szczęście rodziny) powinny również pochodzić od stron „ekspertów” źródeł, którym użytkownicy mogą zaufać.
  • Wysokiej jakości stron na tematy hobbistyczne takie jak fotografia, nauki gry na gitarze również wymagają specjalistycznej wiedzy.” – to tu trochę nie pasuję

*Można z tego wywnioskować, że te branże są obarczone większym ryzykiem kar ręcznych. 

Oczywiście tylko wtedy, gdy nie spełniamy tych ciekawych wytycznych  😉

INSTRUKCJA GOOGLE link do całości.

Ilustracja :The Lonely Vacuum Of Space (JD Hancock) / CC BY 3.0

*Konkluzję opieram również na moich doświadczeniach związanych z branża medyczną.

A wy znacie przykłady delikatnych branż? Podzielcie się w komentarzu.

Google ma na celowniku mobilne sieci afiliacyjne.

Po wypuszczeniu pierwszego ostrzeżenia w ciągu ostatnich tygodni, „googlarze” potwierdzili w tamtym tygodniu, że wyszukiwarka obecnie pracuje nad karami dla stron które stosują oszukańcze przekierowania przynoszące użytkowników  mobilnych do niepożądanych stron i zawierających  wiele linków partnerskich …

Pod koniec października, Google opublikowało post przestrzegając webmasterów przed nieprawidłowymi przekierowaniami, przenoszących mobilnych użytkowników na strony, które nie były ich pierwotnym celem. Tego typy wiadomości nie są pisane przypadkowo, więc może to być zapowiedź szerszego działania nad algorytmem.

Link do artykułu http://googlewebmastercentral.blogspot.com/2015/10/detect-and-get-rid-of-unwanted-sneaky.html

Wydaje się, że może być coś na rzeczy. Andrey Lipattsev, Search Quality Senior Strategist w  Google powiedział na ostatnim spotkaniu (w 25’16”), że jego zespół inżynierów pracuje obecnie nad karą wobec mobilnych sieci afiliacyjnych tworzące fałszywe linki, przekierowania oraz manipulujące algorytmem silnika.

There are still a bunch of big things and they have not gone away.

You mentioned affiliate networks. The way I would specify that particular item, it is very close to my heart right now, is the mobile affiliate traffic driving networks. The ones in particular that are engaged in selling mobile traffic from publishers to a whole bunch of programmatic solutions. Very often without the publisher or the advertising network knowing what is happening in between and users are just being bounced from one place to another. To me personally and a bunch of my colleagues that is a big deal. That is something we are looking at…

Some don’t care about their mobile users and they sell that traffic and land their mobile users somewhere. That is upsetting. That is something we will be dealing with.

Twórcy takich typu sieci, mogą więc zacząć się bać. Może następnym celem Google stanie się PBN kto wie…

Więcej w temacie PBN http://searchengineland.com/google-targets-sites-using-private-blog-networks-manual-action-ranking-penalties-204000

 

Google staję się coraz lepsze w kwestii zrozumienia zapytań

Algorytm wyszukiwarki Google w ciągu lat staję się coraz lepszy  w odpowiadaniu na nasze zapytania. Sama firma jednak nie spoczywa na laurach. Na swoim blogu informuję o nowym przełomowym kroku: „Zrozumienie tego co wpisujesz w wyszukiwarkę.”

Zasadniczo, polegać to ma na rozbijaniu twojego pytania na części, by udzielić trafniejszej odpowiedzi. Działa to w sposób automatyczny nie wymagający żadnych działań od użytkownika.

Jak Google rozumie zapytania użytkownika
Jak Google rozumie zapytania użytkownika

Na przykład :

Sortowane dane: ‚Kto jest najwyższym zawodnikiem  Mavericks?’

Pytania o dokładny przedział czasu:  ‚Jaką piosenkę Taylor Swift  nagrała  w 2014 roku?’

Niektóre bardziej skomplikowane kombinacje:Kto był prezydent USA podczas gdy zespół Angels  wygrał World Series?’

To wszystko pozwala Google na zrozumienie pytań  jak rzeczywista osoba. Nie będziemy więcej zmuszeni do dzielenie zapytań na kilka części lub mozolne i ręczne wyszukiwania.

Może pewnego dnia umożliwi nam to swobodną rozmowę ze  swoim komputerem osobistym.

Kto wie?

Źródła:

Google just got a lot better at understanding questions like an actual person

➤ The Google app now understands you a little better—complex questions welcome

Co należy wiedzieć o wyszukiwarkach i pozycjonowaniu?

Spis treści:

1.Działanie wyszukiwarki i robotów przeszukujących strony

1.1 Pająki i roboty                                                             1.2. Wyszukiwarka a indeksacja

2. Co wpływa na wysoki ranking w Google?

2.1 Ahh te linki                                                                    2.2 Jeszcze o Page Rank?

2.3 Dlaczego anchor text?                                                  2.4 Relewantność?

2.5 Trochę o authority                                                        2.6 Końcówki .edu i .gov

2.7 Coś nowego! CTR?!

1.Działanie wyszukiwarki i robotów przeszukujących strony

Wyszukiwarka internetowa (ang. search engine) jest to program lub strona, która ma za zadanie ułatwienie użytkownikom Internetu znalezienie informacji w sieci.[2] Aby lepiej zrozumieć trudność całego procesu należy pamiętać, że protokół WWW umożliwił tworzenie stron, również użytkownikom zewnętrznym, a sama sieć stała się czymś żywym i dynamicznym. Automatyczne sprawdzenie tego, czy źródło (dana strona) jest zaufane stało się największym problem. Głównym celem wyszukiwarek internetowych stało się dostarczenie jak najbardziej trafnych i wiarygodnych wyników do zapytań Internatów.

Zrozumienie sposobu działania oraz funkcjonowania wyszukiwarki ma podstawowe znaczenie. Każda z nich  się od siebie różni oraz generuje inne wyniki wyszukiwania. Posiadacze stron internetowych muszą precyzyjnie dostosowywać swoje strony do wyszukiwarki, która będzie ich celem. Obecnym liderem na rynku Polskim wyszukiwarek jest Google.  Dzięki regularnym badaniom prowadzanym przez Gemius Traffic Polska wiadomo, że potentat posiada aż 96,67% Polskiego rynku.[3]

Google jest także najpopularniejszą wyszukiwarką internetową na całym świecie. Jednakże tu ich przewaga nie jest tak znacząca. W październiku 2014 roku Google jego udział w rynku oszacowano na 68,75-procent.

[alert-announce]Więcej w tym temacie w artykule Czy wiesz wszystko o Google?[/alert-announce]

Na światowym podwórku do największych wyszukiwarek należy zaliczyć również „baidu.com, które w 2014 roku odnotowała 18.03 proc. udziału we rynku., Yahoo z 6 procentami udziału oraz Yandex.ru, głównie skierowany do osób rosyjskojęzycznych.”[4]

Jeżeli strona internetowa jest tworzona i będzie spełniała wytyczne postawione przez przedstawicieli Google, istnieje olbrzymia szansa, że poradzi sobie też w innych (ważnych) wyszukiwarkach. W wielu aspektach wspomniana wyszukiwarka bardzo przypominała inne już istniejące rozwiązania, jednakże jej interfejs znacznie się wyróżniał. Strona domowa składała się jedynie z bardzo prostego formularza i zwykłego przycisku: „search”. Według literatury to „ta prostota, tak odmienna od wielu ówczesnych wyszukiwarek przypominających wyglądem portale internetowe, była przez wielu czymś bardzo oczekiwanym oraz idealnie spełniła swoje funkcję”.[5] Zdarzało się, że użytkownicy nie byli pewni, że strona załadowała się do końca, więc, by upewnić użytkownika o kompletności procesu ładowania dodano stopkę z prawami autorskim.

1.1 Pająki i roboty

By dobrze zrozumieć działanie wyszukiwarek należy zaznajomić się z kilkoma ważnymi terminami tzn. pająki, roboty, boty indeksujące oraz web crawlery’ami. Są to słowa synonimiczne. Reprezentują one narzędzie do automatycznego przeszukiwania stron internetowych.  Wiążą i indeksują możliwie jak największą liczbę stron oraz podstron znajdujących się w sieci WWW. Kolejnym etapem w procesie jest załadowanie (w odpowiednio sparsowanej formie danych o stronach) na serwery Google’a lub innej wyszukiwarki.

Należy również zauważyć, że niektóre z tych robotów nie są pożyteczne. Te niechciane potrafią przychodzić w najmniej oczekiwanym momencie i zeskanować zasoby witryny, które nie powinny ujrzeć światła dziennego. Obciążają one serwery, co wiąże się z dodatkowymi kosztami eksploatacji. Dzięki odpowiednim narzędziom można to kontrolować.[6] Roboty indeksujące stronę, podobnie jak użytkowników, można swobodnie śledzić oraz badać. Zajmują się one indeksowaniem stron i podstron portali. Skanują również różne pliki, który są powiązane ze stroną internetową. Badają także załączone dokumenty oraz zdjęcia.

1.2 Wyszukiwarka a indeksacja

Ważnym aspektem jest fakt, że można wpłynąć na sposób działania robotów przeszukujących oraz ingerować ręcznie w częstotliwość ich odwiedzania.[7] Służą do tego odpowiednie narzędzia Google. Jednakże nie zaleca się zbytniej ingerencji w podstawowe ustawienia. Na samą indeksację wpływa również wiele innych czynników np. wiek strony, jej rozmiar oraz treść, ilość linków.[8] Roboty te nie sprawdzają strony tylko jeden raz. Po pierwszym skanowaniu witryny, roboty indeksujące wrócą do niej po jakimś czasie, by sprawdzić wszelkie zaistniałe zmiany oraz by zaktualizować wszystkie modyfikacje.

Crawler wyszukiwarki Google to Googlebot[9], zaś robot indeksujący Yahoo!  nazywa się Slurp[10], a wyszukiwarki Bing – MSNBot. Wszystkie zachowują się stosunkowo podobnie. Zadaniem każdego twórcy strony, który troszczy się o optymalizację dla wyszukiwarek jest ułatwienie pracy tym robotom oraz swobodną i prawidłową indeksację wszystkich podstron portalu.

Technologia robotów nie jest i chyba nigdy nie będzie doskonała. Czasami nie są one w stanie zindeksować w całości witryny. Czasami można im zabronić przeglądania niektórych zasobów strony. Odpowiednie blokady można zastosować w plikach, takich jak: robots.txt, htaccess lub też bezpośrednio w pliku httpd.conf.[11]

Istnieje także możliwość zablokowania indeksacji grafiki i plików multimedialnych. Bardzo często, użytkownicy lub nawet inni blogerzy mogą tworzyć bezpośrednie odwołania do zasobów multimedialnych i stosować tzw. hot linki.  Zablokowanie takiej treści jest wskazane, ponieważ każdy serwis ma ograniczoną przepustowość łącza, a nadmiar takich linków może być przyczyną spadku wydajności serwisu.

[alert-announce]Sprawdź również Polepszanie widoczności strony w 7 krokach[/alert-announce]

2. Co wpływa na wysoki ranking w Google?

2.1 Ahh te linki

Gdy strona zostanie już zeskanowana, podlega pewnej automatycznej ocenie. Najpopularniejszy sposób wykorzystywany do dziś, oparty jest na sieci linków. Konceptem używania linków wskazujących z innych stron, jako sposób oceny wartości, został spopularyzowany przez Google. Odbyło się to za sprawą implementacji ich głównego algorytmu oraz systemu oceniania stron zwanego, jako „Page Rank”( inni twórcy też o nim wspominali, jednakże to rosnąca baza użytkowników Google go spopularyzowała). Krótko mówiąc, każdy link z innej strony, jest liczony, jako głos, a ta strona, która ma ich najwięcej wygrywa. Podstawową zasadą było to, że link był „głosem potwierdzenia i zaufania” edytorskiego dokumentu. Idea ta polegała na tym, że edytor a zarazem odbiorca uważał coś za wiarygodne źródło wiedzy, a link do źródła stawał się tego potwierdzeniem.

Idea ta polegała na tym, że edytor a zarazem odbiorca uważał coś za wiarygodne źródło wiedzy, a link do źródła stawał się tego potwierdzeniem.

Jednakże wraz z rozwojem sieci, wydawcy (twórcy stron) dowiedzieli się o mocy, jaką niosą za sobą linki przychodzące.[12]

Niektórzy z nich zaczęli „manipulować” w różny sposób wynikami wyszukiwań.  Stworzyło to sytuację, w której linki nie pochodziły od naturalnych odbiorców, lecz od wygenerowanych w sposób sztuczny systemów zdobywania linków. Na reakcję nie należało długo czekać.

Stworzyło to sytuację, w której linki nie pochodziły od naturalnych odbiorców, lecz od wygenerowanych w sposób sztuczny systemów zdobywania linków.

Algorytm jest do dziś wiele razy modyfikowany. Przeciętnie w ciągu roku w celu ulepszenia wyników wyszukiwania, dokonuje się średnio ponad 500-600 zmiań i od 2 do 4 poważnych aktualizacji.[13]

[alert-announce]Sprawdź również Co to jest budowanie bazy linków?[/alert-announce]

2.2 Jeszcze o Page Rank?

Algorytm Page Rank został skonstruowany na podstawie pracy[14] dwóch studentów Sergey Brina oraz Larry’ego Page’a ówczesnych studentów Uniwersytetu w Stanford, późniejszych właścicieli przedsiębiorstwa Google. Główna zasada algorytmu oparta jest na linkach przychodzących. Jednakże, według niego, każdy z nich nie jest tak samo ważny. Algorytm wskaźnika bazuje na tym, że jakość witryny można określić nie tylko zliczając ilość, ale również i jakość samych linków, które na nią wskazują. Im więcej linków przychodzących do strony lub konkretnej podstrony oraz im większa ich jakość (czyli poziom PR), tym lepiej dla oceny witryny.[15]

„Niestety” ten system również zawiódł, a Google w procesie ewolucji i ulepszania algorytmu częściowo zrezygnował i z tego rozwiązania. Jedna z ostatnich aktualizacji wartości wskaźnika miała miejsce w lutym 2013 roku. Do tej pory nie zanotowano żadnych zmian. Ówczesny przedstawiciel Google – Matt Cutts spytany o aktualizację w 2014 roku odpowiedział, że byłoby to wielce niespodziewane, gdyby taka sytuacja miała miejsce.[16] Choć w 2015 roku wielu ludzi pożegnało ten wskaźnik na zawsze, to należy pamiętać, że jest on podstawą algorytmu i jego kręgosłupem.

Chodź w 2015 roku wielu ludzi pożegnało ten wskaźnik na zawsze, to należy pamiętać, że jest on podstawą algorytmu i jego kręgosłupem.

Dlaczego anchor text?

Mimo skomplikowania całego algorytmu oraz skrupulatnemu ukrywaniu jego działania przed użytkownikami to istnieje możliwość wyróżnienia pewnych czynników wpływające na skuteczność pojawiania się danej strony WWW w wynikach Google. Jednym z nich jest tak zwany „anchor text”. Jest to widoczna część hiper linku, która prowadzi użytkownika do adresu strony[17].

Wpływ takich linków może być dość znaczący. Na przykład, jeśli strona będzie w jakiś sposób nieindeksowalna lub roboty będą miały kłopot z odkryciem, jaka jest jej treść, to tekst ten będzie głównym wskaźnikiem dla wyszukiwarki, wskazującym tematykę witryny. Zdarza się to dość często, w szczególności, gdy strona stworzona jest w technologii Flash.[18].

„Niestety” ten sposób oceniania został również odkryty przez „manipulujących” wynikami pozycjonerów. Google, by zadbać o dokładność i rzetelność swoich wyników wkrótce wprowadziła odpowiednią aktualizację swojego algorytmu łagodzącą ten proceder.

Google, by zadbać o dokładność i rzetelność swoich wyników wkrótce wprowadzi odpowiednią aktualizację swojego algorytmu łagodzącą ten proceder.

Relewantność?

Kolejnym ważnym czynnikiem, który warto omówić jest tak zwana relewantność. Oznacza to zgodność tematyczną połączeń(linków) między stronami. Linki, które pochodzą z serwisów / stron o tym samym temacie lub będące z nim ściśle powiązane, są warte więcej niż te, które pochodzą z serwisów niepowiązanych tematycznie.[19] Zapewnia to również ruch naturalny, np. umieszczając logo danego warsztatu na stronie wymiany opon istnieją duże szanse, że odwiedzający będzie również zainteresowany skorzystaniem z usług warsztatu.

Trochę o authority

Następnym czynnikiem wpływającym na wyniki strony jest tak zwane „authority”. Najłatwiej można zrozumieć to zjawisko przyjmując fakt, że znane wyszukiwarki internetowe dały pewnym witrynom znaczącą przewagę nad innymi stronami. Są to głównie strony rządowe, czy związane z edukacją lub z bardzo ważnymi i rozwojowymi projektami. Praktyka pochodzi z popularnego rozwiązania, które zostało opracowane przez badaczy na Uniwersytecie w Toronto. Nazwane jest ono algorytmem Hilltopa. Ranking ten umieszcza strony o najwyższym autorytecie w danej tematyce na szczycie rankingu. Oparty jest głównie na algorytmie, który operuje na specjalnym indeksie „dokumentów eksperckich”. [20]

Końcówki .edu i .gov

Ten fakt również odbił się na branży SEO.  Zaczęto więc uznawać, że linki pochodzące ze stron edukacyjnych i rządowych tzn. z koncówką .edu. .gov mają większą „moc”. Kiedy zapytano Matta Cuttsa, głównego eksperta odpowiedzialnego, za jakość wyszukiwania w Google, czy to jest prawda, stanowczo zaprzeczył. Mimo, że Google obejmuje stanowisko negujące ten fakt, to łatwo można sobie wyobrazić, że linki z takich domen mają znaczenie. „Większość osób uważa, że linki z domen .gov i .edu są bardziej wartościowe od innych, gdyż strony takie mają zazwyczaj wyższe rankingi PageRank,[21].

Rzadko zdarza się, że tego typu portale są miejscami niebezpiecznymi. Są one wolne od wirusów, nie tworzą sztucznych farm linków oraz nie są stworzone z myślą monetyzacji ruchu na swoich stronach. Można z tego wywnioskować, że zgodnie z wszystkimi algorytmami, linki z takich stron mogą wzmocnić pozycję strony w rankingach Google.

Coś nowego! CTR?!

Wraz z wprowadzeniem kolejnych aktualizacji ważnym czynnikiem stała się interakcja użytkownika z wynikami, które otrzymuje on od wyszukiwarki. Na początku osoba taka przekazuje informacje o tym, czego szuka. Wyszukiwarka odpowiada rezultatami, które znajdują się w indeksie dla regionu, z którego łączy się szukający. Polega to na zbadania adresu IP, który niesie ze sobą informację o położeniu użytkownika. System zapisuje cały schemat zachowania. Między innymi:

– mierzy czas, jaki minął od kliknięcia w kolejne wyniki wyszukiwania,

– sprawdza, który wynik kliknięty, jako pierwszy, drugi itd.,

– czas, jaki upłynął miedzy kolejnymi kliknięciami na stronie,

– czas przebywania na stronie,

– ilość stron odwiedzanych przez użytkownika,

– CTR (click-trough-rate) współczynnik klikalności danego wyniku[22].

[2] W. Babik, Słownik encyklopedyczny informacji, języków i systemów informacyjno-wyszukiwawczych, s. 305.

[3] http://ranking.pl/pl/rankings/search-engines.html, (dostęp 08.06.2015)

[4] https://www.eactive.pl/pozycjonowanie-stron/jakie-sa-najpopularniejsze-wyszukiwarki-internetowe-w-polsce-i-na-swiecie/, (dostęp 08.06.2015)

[5] J. I. Jerkovic, Wojownik SEO Sztuka osiągania najwyższych pozycji w wyszukiwarkach, wyd. Helion, 2011, s. 128.

[6]https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag, (dostęp 08.06.2015)

[7] https://support.google.com/webmasters/answer/48620?hl=pl, (dostęp 08.06.2015)

[8] http://leksykon.seoisem.pl/seo/wyszukiwarki/czestotliwosc-indeksowania, (dostęp 08.06.2015)

[9] https://support.google.com/webmasters/answer/182072?hl=en, (dostęp 08.06.2015)

[10]https://www.seochat.com/c/a/search-engine-spiders-help/the-yahoo-slurp-crawler/, (dostęp 08.06.2015)

[11] http://seo.zgred.pl/blokowanie-robotow-majesticseo-oraz-ahrefs-989, (dostęp 08.06.2015)

[12] E. Enge, S. Spencer, J. Stricchiola, R. Fishkin, The Art of SEO, O’Reilly Media, Sebastopol 2012, s. 140.

[13] https://moz.com/google-algorithm-change, (dostęp 08.06.2015)

[14] http://infolab.stanford.edu/~backrub/google.html, (dostęp 08.06.2015)

[15] http://poradnik-seo.pl/pozycjonowanie/page-rank,wskazniki-seo.html, (dostęp 08.06.2015)

[16]http://www.silesiasem.pl/pagerank-google-wycofuje-sie-z-aktualizacji-zielonego-paska,(dostęp 08.06.2015)

[17] https://moz.com/learn/seo/anchor-text, (dostęp 08.06.2015)

[18] https://support.google.com/webmasters/answer/72746?hl=pl, (dostęp 08.06.2015)

[19] http://webinside.pl/artykul-390-seo–strategie-budowania-linkow.html, (dostęp 08.06.2015)

[20] http://www.maxgraph.pl/Baza-SEO-SEM/99/Algorytm_Hilltop, (dostęp 08.06.2015)

[22] http://www.internetmarketingninjas.com/blog/search-engine-optimization/click-through-rate/, (dostęp 08.06.2015)

Czy wiesz wszystko o Google?

 Historia wyszukiwarki Google

Historia Google rozpoczęła się w marcu 1995 roku. Podstawą całego przedsięwzięcia był projekt badawczy dwóch studentów Uniwersytetu w Stanford. Był to Larry Page wraz z zaprzyjaźnionym Sergey’em Brinem.

Larry Page i Sergeï Brin
Larry Page i Sergeï Brin

Dzięki swoim umiejętnościom Page chciał zaimplementować rozwiązania matematyczne w procesie linkowania za pomocą wykorzystania grafów. Jego mentorem i prowadzącym był Terry Winogard, który namawiał go do skupienia się na tej tematyce. Sam projekt nazywał się „BackRub”[1]. Do zespołu młodego badacza dołączył Brin. Dzięki synergii wiedzy rozpoczęto projekt, który niedługo potem odmienił sposób działania nowoczesnych wyszukiwarek.

Nowy crawler zespołu rozpoczął swoje działanie w marcu w 1996 roku. Panel wyszukiwarki znajdował się na stronie domowej Uniwersytetu Stanford. Sam algorytm został nazwany Page Rank. Wiele osób uważa, że Page w nazwie, pochodzi od angielskiego słowa „page”, czyli strony a nie jak jest oryginalnie, od nazwiska twórcy.[2]

Wiele osób uważa, że Page w nazwie, pochodzi od angielskiego słowa „page”, czyli strony a nie jak jest oryginalnie, od nazwiska twórcy.

Niedługo po implementacji, badacze zauważyli, że wyniki wyszukiwania są bardziej adekwatne od tych proponowanych przez zastałe rozwiązania. Wcześniejsze algorytmy oparte były na bardzo prostej zasadzie. Zliczały ilość słów, które występują na stronie lub dokumencie i porównywały go do słowa poszukiwanego[3]. Zyskiwały zasoby, w których ich ilość była jak największa.

 Sam projekt napisany został w języku C oraz C++, wykorzystujący kilka procesorów Sun Ultras oraz Pentium, działających na systemie Linux. Interesującym wydaję się fakt, że pierwsza baza Google utrzymywana była na dysku twardym o wielkości zaledwie 28 GB[4]. Ciekawym jest również to, że był to projekt uniwersytecki a więc właścicielem wynalazku były władze uczelni. W późniejszym etapie Larry Page za prawo do patentu musiało zapłacić 1.8 mln dolarów w akcjach, co dla Uniwersytetu, w ostatecznym rozrachunku, przyniosło 336 mln dolarów zysku.[5]

W późniejszym etapie Larry Page za prawo do patentu musiało zapłacić 1.8 mln dolarów w akcjach, co dla Uniwersytetu, w ostatecznym rozrachunku, przyniosło 336 mln dolarów zysku.

Wraz z rozwojem, zespół zdecydował się na opuszczenie murów uczelni oraz zmianę nazwy wyszukiwarki. Wynikiem burzy mózgów okazała się interesująca nazwa „Google”. Pochodzi ona od słowa „googol”. Ostatecznie wybór został ograniczony do dwóch propozycji, mianowicie Googolplex i krótsza kontrpropozycja: Googol. Są to dwie ogromne liczby (googolplex – jedynka z googolem zer, googol to jedynka ze 100 zerami). Użycie tego terminu miało oznaczać rozpoczętą przez nich misję, której celem było uporządkowanie nieskończonych zasobów informacji, które znajdują się Internecie.[6]

Domena Google została zarejestrowana w lipcu 1997 roku. Pierwszym inwestorem przedsiębiorstwa stał się Andy Bechtolsheim, który był wtedy współzałożycielem firmy Sun Microsystem. Pierwszy czek, który podpisał opiewał na sumę 100 000 USD dla podmiotu, który jeszcze nie istniał, czyli Google inc.

Pierwszy czek, który podpisał opiewał na sumę 100 000 USD dla podmiotu, który jeszcze nie istniał, czyli Google inc.

Zarejestrowanie spółki Google nastąpiło następnego roku czwartego lipca 1998. Początki giganta były bardzo skromne. Biuro powstało w garażu Susan Wojcicki w Kalifornii, a ich słynny serwer chroniony był przez obudowę z klocków lego. Patrz zdjęcie:

obudowa serwera z klocków lego
obudowa serwera Google z klocków lego

W tamtym momencie nie stać ich było nawet na zatrudnienie jednego pracownika.

Jak Google wyprzedziło Yahoo?

W tym czasie palmę pierwszeństwa dzierżyło Yahoo. Wyszukiwarka notowała ponad 25 milionów odwiedzin dziennie oraz jako pierwsza z firm w stu procentach operująca w Internecie ogłosiła przekroczenie progu rentowności.[7] W tym okresie notowania akcji spółki wynosiły ponad 230 dolarów za jednostkę, by tuż po 2000 roku spadły do 5 dolarów za jednostkę. Tak wielkie osłabienie monopolisty, jakim był Yahoo przyczyniło się w dużym stopniu do możliwości rozwoju firmy Google.

Tak wielkie osłabienie monopolisty, jakim był Yahoo przyczyniło się w dużym stopniu do możliwości rozwoju firmy Google.

Kryzys finansowy a Google

Ekonomiści wnioskują, że było to związane z pęknięciem bańki inwestycyjnej, która napędzana została przez panikę związaną z pluskwą milenijną. Korporacje na całym świecie w strachu inwestowały olbrzymie kwoty w najnowszy sprzęt elektroniczny oraz oprogramowanie. Szybko rosnąca koniunktura skłoniła wielu inwestorów do inwestycji w spółki internetowe zwane dotkomami. Akcje te zwróciły również uwagę specjalistów od inwestycji krótkoterminowych, a dzięki ich działaniom, przeszacowano ceny akcji bardzo wielu spółek, w tym również Yahoo. Po załamaniu giełdowym wielu dużych reklamodawców wycofało się z rynku.

Kunszt Google polegał na tym, że skupił się na drobnych wydawcach oraz reklamodawcach. Spółce wolnej od wpływów recesji na rynku udało się uzyskać przychody rzędu 440 milionów dolarów.

W 2003 roku Google, jako firma z czteroletni stażem- mogła się pochwalić sprzedażą rzędu 1,5 miliarda dolarów, stumilionowym zyskiem i obsługą ponad 80 procent zapytań kierowanych z całego świata do ogółu wyszukiwarek. W 2004 roku 18 sierpnia w ramach pierwszej oferty publicznej na giełdzie Wall Street spółka emituje 19 605 052 akcji zwykłych klasy A. Cena emisji: 85 USD za akcję.[8]

W lipcu 2005 roku akcje Google zyskują prawie cztery procent na wartości, gdy Credit Suisse First Boston wycenia jedną jednostkę spółki na 350 dolarów. Liczono także, że Google zostanie umieszczone w najważniejszym indeksie giełdowym w Stanach Zjednoczonych, czyli S&P 500. Do tej listy został dodany rok później. W obrotach pozasesyjnych wartość akcji Google wzrosła w ciągu kilkudziesięciu minut o ponad 30 USD (9 proc.), zwiększając kapitalizację spółki o ponad 8 mld USD.[9]

Google dziś

Zdjęcie głównej siedziby Google
Zdjęcie głównej siedziby Google

Obecnie Google w swoich placówkach zatrudnia ponad 54 000 pracowników. Korporacja posiada również placówki w kilkunastu krajach poza USA. W 2014 roku przychód przedsiębiorstwa wyniósł 66 mld dolarów(…) w porównaniu do roku poprzedniego. Firma może się pochwalić zyskiem netto na poziomie 14,4 mld dolarów oraz zyskiem operacyjnym równym 16,5 mld dolarów.[10] Obecnie przychody tej największej agencji reklamowej na świecie dorównują przychodom budżetowym średnio zamożnego państwa np. Polski [11].

Obecnie przychody tej największej agencji reklamowej na świecie dorównują przychodom budżetowym średnio zamożnego państwa np. Polski.

Z aspektów technicznych, Google może się pochwalić ponad 1 bilionem zindeksowanych stron[12], przetwarzaniem ponad 20 petabajtów (1 petabajta = 1 073 741 824 megabajtów) dziennie[13]. Jedno kliknięcie myszki, wywołujące wyszukiwanie jest w stanie prześledzić 1 bilion różnych informacji.[14]

[1] http://infolab.stanford.edu/~backrub/google.html, (dostęp 08.06.2015)

[2] http://web.archive.org/web/20090424093934/http://www.google.com/press/funfacts.html, (dostęp 08.06.2015)

[3] S. Abiteboul, V. Vianu, Queries and Computation on the Web. Proceedings of the International Conference on Database Theory, Delphi 1997, s. 84.

[4] https://www.google.pl/about/company/history/, (dostęp 08.06.2015)

[5] S. Levie, In The Plex: How Google Thinks, Works, and Shapes Our Lives, Simon & Schuster, 2011, s. 82.

[6] http://www.focus.pl/sekrety-nauki/skad-wziela-sie-nazwa-google-12, (dostęp 08.06.2015)

[7] R.L Brandt, Potęga Googla, Znak, 2011, s. 13-14.

[8] http://www.google.com/about/company/history/, (dostęp 08.06.2015)

[9]  http://www.parkiet.com/artykul/437786.html?print=tak, (dostęp 08.06.2015)

[10] http://pclab.pl/news61734.html, (dostęp 08.06.2015)

[11] Dz.U. 2014 poz. 162 USTAWA BUDŻETOWANA ROK 2014 z dnia 24 stycznia 2014 r.

[12] http://techcrunch.com/2008/01/09/google-processing-20000-terabytes-a-day-and-growing, (dostęp 08.06.2015)

[13] http://www.complex.com/pop-culture/2013/02/50-things-you-didnt-know-about-google/language-interfaces, (dostęp 08.06.2015)

[14] http://www.wired.com/2012/08/google-trillion-pieces-of-data, (dostęp 08.06.2015)