Pokazywanie postów oznaczonych etykietą badania. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą badania. Pokaż wszystkie posty

sobota, 23 maja 2015

Internet, głupku! Dlaczego wybory wygrywa się dziś w sieci


Wybory parlamentarne, prezydenckie czy samorządowe już nigdy nie będą takie same jak 10 czy 20 lat temu. Rosnące znaczenie internetu, a zwłaszcza sieci społecznościowych sprawia, że każdy kto myśli o zdobywaniu lub utrzymywaniu władzy musi nauczyć się wykorzystywać do swoich celów najpowszechniejszy dziś kanał komunikacji jakim jest internet.

65 lat temu John Kennedy wygrał debatę telewizyjną z Nixonem m.in. dlatego, że był przystojniejszy, młodszy od swego kontrkandydata. Po prostu podobał się widzom. Telewizja od tego czasu pozostaje nadal kanałem jednokierunkowej komunikacji (nadawca - odbiorca), a świat i sposób docierania do informacji gwałtownie zmienił się wraz z rozwojem internetu. Chciałem tym wpisem, podczas ciszy wyborczej, zmierzyć z tematem wpływu internetu na wybory. Kilka faktów przemawiających za tezą postawioną w tytule.


Po pierwsze rosnący zasięg w sieci


Dziś w internecie jest już ponad 20 mln Polaków co oznacza, że nawet jak odejmiemy tych, którzy nie mają prawa wyborczego jest nas tu więcej niż zwykle chodzi na wybory. Co ciekawe najszybciej i najwięcej przybywa teraz internautów ze starszych kategorii wiekowych. Przekonanie polityków iż najlepiej docierają do elektoratu (starszego?) nadal używając reklam w tv jest zatem błędem. Nie trzeba też wielkiej analityki, by dostrzec, że aktywność internetowa gwałtownie rośnie i poświęcając na ten kanał coraz więcej czasu jednocześnie mniej uwagi przeznaczamy na inne media. Mimo coraz powszechniejszego multitaskingu, czyli jednoczesnego korzystania z wielu mediów – patrz screeny z raportu IAB Polska - DigitalScope2014 dostępnego tutaj. Nie tylko tradycyjna prasa, ale i TV cierpi na tym trendzie. W młodszych kategoriach wiekowych telewizję zastępują portale typu YouTube, czy kanały social mediowe. Młodzi jasno deklarują, że nie mają telewizora bo dla nich linearna telewizja to przeżytek; wystarczy im ekran laptopa do tego, by oglądać ulubione seriale w aplikacjach, VOD czy serwisach typu Netflix.

Po drugie social media


Ludzie nie wierzą w to, co im mówicie, rzadko wierzą w to, co im pokazujecie, a często za to wierzą w to, co mówią im znajomi. I zawsze wierzą w to, co sami przekazują innym – twierdził znany bloger Seth Godin.

Kanały social mediowe jak Twitter, Facebook, a także Instagram, czy Snapchat czy WhatApps pełne są kręgów znajomych. Autentyczność wielu profili oczywiście bywa wątpliwa. Pamiętam sytuację z serwisu Wiadomosci24.pl gdzie po długim śledztwie (sprawdzanie IP komputera, etc.) okazało się, że jeden z użytkowników miał 6 (słownie sześć!) tożsamości. Sam ze sobą rozmawiał, komentował, chwalił. Znajomy opowiadał mi też historię związaną z jednym z największych forów w sieci gdzie po długim czasie okazało się, że 6 grup, czy wątków prowadził jeden obywatelski moderator (dwie tożsamości). Sęk w tym, że 3 były poświęcone miastu z którego pochodził, a pozostałe drugiemu miastu, które od lat z nim rywalizuje. Wszystkich zastanawiało wyjątkowo dużo pozytywów w jednym mieście i nagromadzenie afer, negatywnych wątków w drugim…

Czego to dowodzi? Że jeden zaangażowany fan, a tym bardziej fanatyk partii czy pomysłu może mieć wielki wpływ na to co dzieje się w przestrzeni publicznej. 100 ludzi z grupą znajomych od 300 do 500 osób to już zasięg nawet 30 do 50 tys. a szybko rozprzestrzeniający się mem, tweet, wpis na FB, czy nagranie z YouTube’a zrobione kamerą w telefonie to siła, którą trzeba wykorzystywać a nie lekceważyć. Partie i ich czołowi politycy, którzy zatrzymali się na jednokierunkowym przekazie (tv, radio, prasa) mogą szybko zniknąć ze sceny.

Warto zwracać uwagę na to, że wszyscy jesteśmy zalewani informacjami, mnogość kanałów przekazu. Mamy zatem mniej czasu na zarządzanie informacjami jakie do nas płyną. Staramy się minimalizować wysiłek w dotarciu do informacji, a jednym ze sposobów optymalizowania tego procesu wyszukiwania i selekcjonowania jest wykorzystywanie „filtru” jakie tworzą samorzutnie społeczności. Co to oznacza? Czytam i oglądam to czym interesują się, co czytają znajomi na Twitterze czy Facebooku. Ale tym samym częściej wierzę w otrzymywane od znajomych informacje, podzielam ich opinie oraz udzielają mi się ich emocje!

Kanały social media to bomba z opóźnionym zapłonem. Kto nie dostosuje się do reguł gry panujących w internecie, a zwłaszcza nie obłaskawi technik – nazwijmy to po imieniu – wpływania na innych, manipulacji, sterowania przekazem może zapomnieć o poparciu. Serwisy social media gigantycznie skróciły dystans między politykami a wyborcami, dając obywatelom poczucie wpływania na rzeczywistość. Niemal 2 lata temu gdy w Polsce na dobre zaistniał Instagram pisałem na blogu m.in. …w cyberprzestrzeni za sprawą Twittera, Facebooka czy Instagramu możemy poczuć się i bliżej pewnych osób, i równocześnie bardzo daleko. Śledzenie profili VIP–ów jest skracaniem tego dystansu, kliknięcie w “lubię to”, komentarz pozwala mieć złudzenia, że "znamy się z celebrytą, politykiem"...

Po trzecie całkowita demokratyzacja przepływu informacji

 

Świat cyfrowy to świat wielu “centrów” przekazu. To nie TV czy prasa dziś narzuca ton publicznej debacie, ale sytuacje kreowane w kanałach cyfrowych. Wydarzenie “wykreowane” przez udostępniane czy retweetowanie przez internautów stają się przekazem dnia, to o nie pyta się polityków w wywiadach dnia w stacjach Tv.

Politycy zapomnieli chyba, że internet, nawet jeśli nie obejmuje dziś całego elektoratu zwielokrotnił przekaz. Co więcej znacznie ograniczona jest dziś rola dawnych selekcjonerów informacji (komentatorzy, uporządkowane media gdzie ktoś selekcjonuje informacje typu radio, tv, prasa) i występuje błyskawiczne sprzężenie zwrotne. Opinię na temat danej treści politycy, sztabowcy, marketingowcy mają natychmiast, a sami odbiorcy skutecznie wpływają na formę i zawartość przekazu. Konferencja prasowa w Sejmie i przekaz dnia natychmiast schodzi na drugi plan gdy wydarzenia - np. na Twitterze - ktoś umiejętnie skomentuje, przekręci, zamieni w mema.

Warto pamiętać, że internauci zawsze korzystają z informacji kiedy chcą, co więcej mogą korzystać z informacji gdzie chcą (prasa, radio, tv, internet), zwykle korzystają z informacji jak chcą, zawsze korzystają z informacji jakie samodzielnie wybierają, chętnie korzystają z informacji, które mogą współtworzyć! Co to oznacza? Tworzenie memów, linkowanie nowych grup, udostępnianie treści, które zgodne są z emocjami jakie w tej chwili rządzą moim nastrojem…

Po czwarte komórkowa demokracja


Demokratyzacja przyspieszyła jeszcze wraz z mobilno-smartfonową rewolucją. Banałem jest dziś stwierdzenie, że szybciej wrócimy się do domu po zapomniany smartfon niż po portfel z dokumentami. Jak widać z ostatnich dużych badań (przełom kwietnia i maja) prowadzonych przez firmę SW Research na potrzeby konf. Generation Mobile 2015 na prawie 5,5 tys. przebadanych użytkowników internetu, odsetek posiadaczy smartfonów wśród Polaków w młodszych kategoriach wiekowych sięga prawie 90 procent populacji, a nawet wśród starszych przekracza 50 %. Jakie są tego konsekwencje, wystarczy spojrzeć na inne badania prowadzone w 2013 roku przez zespół Kleiner Perkins Caufield Byers.

Przeciętny użytkownik smartfona sięga po niego i spogląda na ekran aż 150 razy w ciągu dnia! Z tego aż kilkanaście razy by użyć serwisu social media, sprawdzić newsy czy ogólnie serfować w sieci. Owa „komórkowa demokracja” jest dziś jeszcze na etapie aktywnego konsumenta, który włączył się w proces decyzyjny. To trochę wciąż wypełnianie definicji Web 2.0 gdzie podział jest dość prosty 1 na 100 tworzy treść, 10 komentuje (udostępnia, lajkuje, itp., itd.), a 89 tylko czyta.

Nic nie stoi na przeszkodzie, oczywiście poza oporem mentalnym i politycznym obecnych partii, by wykorzystać smartfony do zwiększenia frekwencji w wyborach. Skoro można robić selfie, można autoryzować transakcje bankowe, czemu nie głosować w wyborach z użyciem aplikacji? To realne, możliwe i bardzo istotne dla naszej demokracji – włączenie wielu obywateli w proces decyzyjny. Trzeba tylko zmienić kilka przepisów i ustaw. Nagle może się okazać, że frekwencja w wyborach może znacząco wzrosnąć, zwłaszcza w młodszych kategoriach wiekowych.

Po piąte Partia Internautów


Już w 2007 roku w serwisie Wiadomosci24.pl, który wówczas prowadziłem postanowiliśmy się zabawić (początkowo był to tylko żart) w futurologię. Umieściliśmy w sondzie przed ówczesnymi wyborami nieistniejącą Partia Internautów – okazało się, że zebrała kilkanaście procent głosów. Pomysł na zdemokratyzowane działanie takiej partii był prosty, ale i mocno kontrowersyjny, cyt. Wyobraźmy sobie głosowanie posła partii PI - laptop na kolanach, na ekranie wyniki głosowania internautów w każdej ze spraw, jaką ma zajmować się Sejm. Poseł patrzy na wyniki odpowiedniej sondy zamieszczonej na stronie PI i oddaje głos tak, jak tego sobie życzy większość. Proste, prawda?


***

Ten wpis powstał nie po to, by dotykać bieżących wydarzeń z kampanii prezydenckiej, która dziś zamilkła w ramach ciszy wyborczej. To jeszcze jeden relikt z przeszłości tak wyraźnie kwestionowany samym tylko istnieniem internetu. Jej zniesienie to dla mnie pierwszy krok do włączenia większej części społeczeństwa w demokratyczny proces wyborczy. Gdyby ciszy nie było sieć tętniłaby kampanią i do ostatniej chwili ważyłyby się losy wyniku. A czyż nie o powszechny udział w wyborach nam wszystkim chodzi, o bardziej reprezentatywny wybór?

wtorek, 11 listopada 2014

Megapanel PBI czy Google Analytics? Dlaczego warto stawiać nie tylko na amerykańskie giganty

Kilka dni temu na Facebooku pojawił się pewien wpis na profilu założyciela Spidersweb.pl – Przemka Pająka. Dotyczył Megapanelu PBI. Autor kwestionował jego wiarygodność jako wiarygodnego narzędzia mierzącego ruch na serwisie, a jednocześnie podkreślał obiektywizm Google. Cyt. - Na pewno Google jest bardziej obiektywny niż Megapanel, bo stosuje tą samą metodologię dla wszystkich - komentował swój wpis Przemysław Pająk.

Zainspirowało mnie to i postanowiłem pogrzebać w pamięci, książkach, by zakwestionować tok myślenia, że amerykański i bezpłatny produkt zawsze - zwłaszcza w długoletniej perspektywie - jest dla nas lepszy. No i niejako przy okazji opisuję historię polskiego internetu, która mógłby, gdyby nie kilka okoliczności, wyglądać inaczej. Także w obszarze wyszukiwarek.

W 1997 roku w internecie nie istniała jeszcze wyszukiwarka Google, ale od 3 lat istniała wyszukiwarka Infoseek (link przekierowuje do stron koncernu Walta Disneya). Google Inc. została założona właściwie w 1998 r. przez dwóch doktorantów Uniwersytetu Standforda Amerykanina Larry’ego Page’a i Rosjanina Siergieja Brina. Opracowali nowatorską wówczas metodę analizy powiązań hipertekstowych - algorytm Backub przemianowany później na Page Rank, którą wykorzystali w prototypie obecnej znanej wyszukiwarki. To w 1997 r., czyli 17 lat temu na serwerach Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego uruchomiono polską wersję wyszukiwarki Infoseek. Jeżeli ktoś wtedy chciał coś znaleźć w polskim internecie często wykorzystywał do tego tej wyszukiwarki (inne to www.altavista.pl, www.hotbot.com)

Google przetrwał bańkę internetową, Infoseek - nie

Google przetrwał bańkę internetową na przełomie tysiącleci, niestety wyszukiwarka Infoseek nie. W 2000 r. polska wersja wyszukiwarki Infoseek wraz z bazą została odkupiona od Infoseek Co. przez firmę IVP, by później wejść w skład portalu Arena.pl (kto jeszcze pamięta ten projekt?). Po dość krótkiej działalności Areny zakończonej spektakularnym bankructwem wyszukiwarka zniknęła z naszego rynku. A później i światowego. Do dziś istnieje jednak polska wersja strony, a nawet działa część przekierowań.

Już w sierpniu 2008 r. Google na rynku amerykańskim obejmował ok. 63 % rynku wyszukiwarek, a Yahoo odpowiadał za ok. 20 %. Wydawcy amerykańscy w drugiej połowie pierwszego dziesięciolecia tego wieku uznawali, że ruch w serwisach pochodzący z Google na poziomie 30 - 50 % nie jest niczym zaskakującym i niebezpiecznym. Polskie strony - może tylko z wyjątkiem portali, które zbudowały swój zasięg kilka lat temu - mają dziś wskaźniki nie odbiegające od tych danych. Twierdziłbym nawet, że wiele polskich serwisów jest jeszcze bardziej uzależnionych od ruchu z Google. Tymczasem wielu fachowców uważa, że „zdrowa“ struktura ruchu to 1/3 z wyszukiwarek, 1/3 z odwiedzin bezpośrednich, a 1/3 z referrali, czyli linków w tym z social media. I do tego wszyscy starają się dążyć.

Nie jest tajemnicą, że Google w indeksowaniu treści i odpowiadaniu na zapytania internautów bierze pod uwagę około 200 czynników wpływających na takie a nie inne miejsce w wynikach. Szerzej pisze o tym na blogach wielu specjalistów od SEO.

Tajemnice indeksacji robotów Google

Wielu producentów treści (pozostańmy przy określeniu – wydawcy) nie może przeboleć tego, że Google zarabia na treściach przez nich wytworzonych wyświetlając reklamy. Firma z Monutain View nie dzieli się tymi przychodami. Co ciekawe na YouTube, należącym także do Google, program partnerski pozwala twórcom zarabiać na reklamach. W licznych polemikach na temat tego jak Google działa w obszarze indeksowanych tekstów i zdjęć, czy robi to uczciwie pojawia się i argument, że tylko wydawanie coraz większych kwot na googlowskie AdWords pozwala zachować dobrą widoczność dla jego robotów. Dowodem mają być kłopoty wielu serwisów po każdorazowej aktualizacji mechanizmów Google typu Panda. Tajemnicą poliszynela jest szybkość indeksacji i widoczności zasobów, bo... nie jest wyłącznie zależna o działań SEO, ale właśnie od wydatków na AdWords. Dla właścicieli serwisów to trudne do zaakceptowania, że im więcej wydają na AdWords tym są lepiej „widziani przez Google“. Nie dość, że Google zarabia na treściach to jeszcze każe sobie płacić za to, by być lepiej widocznym. Dla wyszukiwarki perfekcyjny model biznesowy, niestety zabójczy dla podmiotów tworzących treść gdyż to one ponoszą koszty jej wytworzenia, a argumenty o ruchu pozyskiwanym od giganta stają się coraz mniej wiarygodne.

Wydawcy powszechnie próbują uregulować stosunki z amerykańską wyszukiwarką. Z różnym, na razie najczęściej marnym, skutkiem. W Niemczech uregulowaniu stosunków Google’a z wydawcami miały pomóc tzw. pomocnicze prawa autorskie. Przeforsowano projekt ustawy, która dał niemieckim wydawcom prasy "wyłączne prawo do udostępniania w internecie treści w celach komercyjnych". Stowarzyszenie skupiające wydawców (około 200 podmiotów) o nazwie VG Media pozwało giganta z Mountain View i zobowiązało do odprowadzania opłat licencyjnych za wykorzystanie fragmentów tekstów dłuższych niż "pojedyncze słowa lub krótkie fragmenty". W reakcji na to amerykańska firma ogłosiła, że zmniejszy widoczność treści od wydawców i zaprzestała wyświetlania w wynikach fragmentów tekstów takich serwisów jak Bild.de czy Bunte.de. Wynik był z góry przesądzony. Po usunięciu z wyników wyszukiwania linków do wydawców ruch spadł im co najmniej o 40 %. A co za tym idzie i przychody.

To dlatego Ringier Axel Springer chce ponownie współpracować z Google. Mathias Doepfner prezes Ringier Axel Springer jest nawet zdania, że ten przypadek jest tylko dowodem na to, że wyszukiwarka przestała być tylko wyszukiwarką i dyskryminuje wydawców, a także dopuszcza się nadużyć. Wydawcy szukają jeszcze ratunku w strukturach UE. - Google musi płacić autorom z krajów Unii Europejskiej za wykorzystywanie ich własności intelektualnych - uważa Guenther Oettinger, unijny komisarz do spraw gospodarki cyfrowej i społeczeństwa. I zapowiedział ostatnio przeforsowanie zmiany unijnego prawa, która ma to umożliwić.

Ile zarabia Google w Polsce? Czy płaci podatki?

Spójrzmy w dane ADEX - cykliczne badanie służące do mierzenia wydatków na reklamę internetową. Projekt od 7 lat realizuje IAB Polska wspólnie z PwC, a jego wyniki stały się standardem rynkowym. Są też bazą dla analiz dotyczących wydatków reklamowych w polskiej sieci. Ostatni dokument dostępny na stronie IAB Polska obejmuje pierwszą połowę 2014 r. W pierwszym półroczu wartość cyfrowej reklamy w Polsce przekroczyła 1,25 mld zł. Marketing w wyszukiwarkach, czyli SEM to aż 37 % tego tortu, a zatem lekko licząc ponad 460 mln zł, czyli prawdopodobnie rocznie ponad 920 mln zł. Nie trzeba wielkiej filozofii, by wiedzieć, że Google przy zasięgu 92,5% wśród polskich internautów (ponad 20 mln internautów) zgarnie w 2014 r. większość z tej kwoty.

Ile z tych z grubsza licząc 900 mln dolarów zostaje w Polsce i wpływa na rozwój naszej gospodarki? Oficjalne dane do jakich można dotrzeć (KRS spółki Google Polska – dostępny m.in. na stronie www.przeswietl.pl) pokazują, że Google Polska w 2012 r. zapłacił nieco ponad 1 mln zł podatków przy sprzedaży na poziomie 155 mln zł. Firma Google zatrudnia w Polsce sporo osób. I pewnie płaci im nieźle – w końcu wybiera zwykle najlepszych z najlepszych. Jednak sama, podobnie jak wiele innych koncernów, korzysta z optymalizacji podatkowej i płaci podatki od dochodów w innych krajach, np. w Irlandii. Część dochodów z AdWords, AdSense i innych produktów Google’a księgowana jest bowiem w Google Ireland Limited (Barrow Street, Dublin).

Gemius, czyli dlaczego Megapanel PBI

Gemius to firma, która wypączkowała z założonej w Polsce 1999 roku firmy Global eMarketing. Już w 2002 roku wdrożyła badanie Prawdziwy Profil, który stał się pierwowzorem obecnego dziś badania Megapanel należącego do spółki PBI. Gemius obecny jest dziś na co najmniej kilkudziesięciu rynkach.

Badanie Prawdziwy Profil, które stało się standardem na naszym rynku i znane jest dziś jako Megapanel PBI (z udziałem panelistów) tym różni się od badań typu Google Analytics, że daje dość przybliżony wizerunek internautów, a nie faktycznie urządzeń z jakich ktoś odwiedził stronę. Badanie powstało na wzór badań telewizyjnych - stąd grupa panelistów. To przecież nie urządzenia klikają w reklamę i podejmują decyzje zakupowe, a ludzie, którzy ich używają. Badania panelowe nie są idealne, ale bazując na iluś tam gospodarstwach domowych są w stanie oddać, po analizie, jakościowo lepszą bazę. W największym skrócie wszyscy bazują na tzw. cookies, czyli wskaźnikach Unique Users (UU) do pokazywania liczby użytkowników na witrynach internetowych. Ta statystyka jest jednak obarczona dużym błędem i generalnie zawyża liczbę użytkowników na stronach – używamy przecież coraz więcej urządzeń. Owszem Real Users (RU) daje zdecydowanie niższe wyniki ilościowe, ale pokazuje lepsze jakościowe dane dotyczące użytkowników.

Badania są pewnego rodzaju wspólną walutą jako używają do rozliczania się między sobą wydawcy serwisów i reklamodawcy. Ci drudzy chce wydać pieniądze na reklamę i muszą dokładnie wiedzieć na co je wydać i co w ramach budżetu otrzymują. Z kolei właściciel witryny usiłuje przekonać reklamodawcę, że ma tych internautów zainteresowanych usługą czy produktem bardzo dużo. Czy systemy pokazujące tylko liczbę wizyt, czy cookies są lepsze od tych, które przybliżają reklamodawcy grupę prawdziwych internautów? Konkretnych osób podejmujących takie a nie inne decyzje zakupowe. Czy narzędzie proponowane przez amerykańskiego giganta przez to, że pokazuje więcej Unikalnych Użytkowników, ma zastąpić produkt rodzimej firmy? Dlatego, że jest stosowane powszechnie, bo jest bezpłatne?

Czy mogła powstać polska konkurencja dla Google'a?

Model biznesowy właściciela Analytics to przede wszystkim pieniądze pozyskane od właścicieli serwisów chcących być widocznymi w wynikach wyszukiwania. Wiele narzędzi Google wciąż pozostaje bezpłatnych, w tym i te analityczne. Gdy jednak chcemy pozyskać wiarygodną, bardziej szczegółową wiedzę musimy sięgać po produkty Premium.

Miałem przyjemność redagować książkę „E-wangeliści. Ucz się od najlepszych twówców polskiego internetu“. W zamieszczonych w niej wypowiedziach Jacka Kawalca, jednego z założycieli Wirtualnej Polski i Zbigniewa Sykulskiego założyciela Merlin.pl, pojawiają się ciekawe wątki dotyczące powstania polskiej wyszukiwarki. Chodzi o okres 1997 – 2003 gdy istniała całkiem realna perspektywa stworzenia wyszukiwarki na bazie Netsprint.pl. Marcin Pery jeden z twórców sukcesu Gemiusa namawiał nawet kiedyś portale do wspólnego kupienie Netsprinta i zbudowania wyszukiwarki zdolnej przeciwstawić się amerykańskim rozwiązaniom.

O tym, że w tamtych latach Google nie wszędzie zmonopolizował rynek wiemy np. z historii rynku południowych sąsiadów. W Czechach wyszukiwarka Seznam.cz ma wciąż 43 % (dane za 2013 r.) udziałów w rynku choć jeszcze w 2011 roku było to 60 %. Nie wspomnę o Rosji gdzie Yandex ma około 60 %, udział w rynku czy Chinach, gdzie tamtejszej wyszukiwarki Baidu używa 64 % internautów.

Co ciekawe instytucje UE, która bardzo chce wspierać europejski e-biznes i często o tym mówi sama korzysta z rozwiązań analitycznych ...Google. W tym roku europejscy dostawcy tego typu narzędzi stworzyli koalicję Web Analytics Alliance. Chcą wspólnymi siłami zachęcić instytucje unijne do korzystania z rozwiązań analitycznych europejskich firm.

***

Dla mnie ani Google Analytics nie jest idealny, ani Megapanel/PBI, ale starałem się spojrzeć na pewne procesy z szerszej i dłuższej perspektywy. Google jest świetną, dopracowaną wyszukiwarką. Niestety, coraz silniejsza monopolistyczna pozycja amerykańskiej firmy, już nie tylko jako wyszukiwarki, zagraża istnieniu tysiącom firm na całym świecie. Nie kwestionuje pozytywnego wpływu Google na światową gospodarkę, nie tylko internetową, bo taki po prostu też jest. Tylko, że pieniądze jakie zarabia amerykański koncern w Polsce mogłyby być – gdyby inaczej potoczyła się historia np. rynku wyszukiwarek – spożytkowane lepiej. Zwłaszcza dla rodzimych przedsiębiorstw, a co za tym idzie i dla nas jako pracowników i podatników. Jak? To już dowolna interpretacja każdego z tych, którzy dotarli do końca tekstu. Próbowałem tylko pokazać fakty związane z wyszukiwarką i powstałą w Polsce dużą firmą badawczą, obecną na wielu rynkach Europy.