Pokazywanie postów oznaczonych etykietą E-wangeliści. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą E-wangeliści. Pokaż wszystkie posty

wtorek, 11 listopada 2014

Megapanel PBI czy Google Analytics? Dlaczego warto stawiać nie tylko na amerykańskie giganty

Kilka dni temu na Facebooku pojawił się pewien wpis na profilu założyciela Spidersweb.pl – Przemka Pająka. Dotyczył Megapanelu PBI. Autor kwestionował jego wiarygodność jako wiarygodnego narzędzia mierzącego ruch na serwisie, a jednocześnie podkreślał obiektywizm Google. Cyt. - Na pewno Google jest bardziej obiektywny niż Megapanel, bo stosuje tą samą metodologię dla wszystkich - komentował swój wpis Przemysław Pająk.

Zainspirowało mnie to i postanowiłem pogrzebać w pamięci, książkach, by zakwestionować tok myślenia, że amerykański i bezpłatny produkt zawsze - zwłaszcza w długoletniej perspektywie - jest dla nas lepszy. No i niejako przy okazji opisuję historię polskiego internetu, która mógłby, gdyby nie kilka okoliczności, wyglądać inaczej. Także w obszarze wyszukiwarek.

W 1997 roku w internecie nie istniała jeszcze wyszukiwarka Google, ale od 3 lat istniała wyszukiwarka Infoseek (link przekierowuje do stron koncernu Walta Disneya). Google Inc. została założona właściwie w 1998 r. przez dwóch doktorantów Uniwersytetu Standforda Amerykanina Larry’ego Page’a i Rosjanina Siergieja Brina. Opracowali nowatorską wówczas metodę analizy powiązań hipertekstowych - algorytm Backub przemianowany później na Page Rank, którą wykorzystali w prototypie obecnej znanej wyszukiwarki. To w 1997 r., czyli 17 lat temu na serwerach Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego uruchomiono polską wersję wyszukiwarki Infoseek. Jeżeli ktoś wtedy chciał coś znaleźć w polskim internecie często wykorzystywał do tego tej wyszukiwarki (inne to www.altavista.pl, www.hotbot.com)

Google przetrwał bańkę internetową, Infoseek - nie

Google przetrwał bańkę internetową na przełomie tysiącleci, niestety wyszukiwarka Infoseek nie. W 2000 r. polska wersja wyszukiwarki Infoseek wraz z bazą została odkupiona od Infoseek Co. przez firmę IVP, by później wejść w skład portalu Arena.pl (kto jeszcze pamięta ten projekt?). Po dość krótkiej działalności Areny zakończonej spektakularnym bankructwem wyszukiwarka zniknęła z naszego rynku. A później i światowego. Do dziś istnieje jednak polska wersja strony, a nawet działa część przekierowań.

Już w sierpniu 2008 r. Google na rynku amerykańskim obejmował ok. 63 % rynku wyszukiwarek, a Yahoo odpowiadał za ok. 20 %. Wydawcy amerykańscy w drugiej połowie pierwszego dziesięciolecia tego wieku uznawali, że ruch w serwisach pochodzący z Google na poziomie 30 - 50 % nie jest niczym zaskakującym i niebezpiecznym. Polskie strony - może tylko z wyjątkiem portali, które zbudowały swój zasięg kilka lat temu - mają dziś wskaźniki nie odbiegające od tych danych. Twierdziłbym nawet, że wiele polskich serwisów jest jeszcze bardziej uzależnionych od ruchu z Google. Tymczasem wielu fachowców uważa, że „zdrowa“ struktura ruchu to 1/3 z wyszukiwarek, 1/3 z odwiedzin bezpośrednich, a 1/3 z referrali, czyli linków w tym z social media. I do tego wszyscy starają się dążyć.

Nie jest tajemnicą, że Google w indeksowaniu treści i odpowiadaniu na zapytania internautów bierze pod uwagę około 200 czynników wpływających na takie a nie inne miejsce w wynikach. Szerzej pisze o tym na blogach wielu specjalistów od SEO.

Tajemnice indeksacji robotów Google

Wielu producentów treści (pozostańmy przy określeniu – wydawcy) nie może przeboleć tego, że Google zarabia na treściach przez nich wytworzonych wyświetlając reklamy. Firma z Monutain View nie dzieli się tymi przychodami. Co ciekawe na YouTube, należącym także do Google, program partnerski pozwala twórcom zarabiać na reklamach. W licznych polemikach na temat tego jak Google działa w obszarze indeksowanych tekstów i zdjęć, czy robi to uczciwie pojawia się i argument, że tylko wydawanie coraz większych kwot na googlowskie AdWords pozwala zachować dobrą widoczność dla jego robotów. Dowodem mają być kłopoty wielu serwisów po każdorazowej aktualizacji mechanizmów Google typu Panda. Tajemnicą poliszynela jest szybkość indeksacji i widoczności zasobów, bo... nie jest wyłącznie zależna o działań SEO, ale właśnie od wydatków na AdWords. Dla właścicieli serwisów to trudne do zaakceptowania, że im więcej wydają na AdWords tym są lepiej „widziani przez Google“. Nie dość, że Google zarabia na treściach to jeszcze każe sobie płacić za to, by być lepiej widocznym. Dla wyszukiwarki perfekcyjny model biznesowy, niestety zabójczy dla podmiotów tworzących treść gdyż to one ponoszą koszty jej wytworzenia, a argumenty o ruchu pozyskiwanym od giganta stają się coraz mniej wiarygodne.

Wydawcy powszechnie próbują uregulować stosunki z amerykańską wyszukiwarką. Z różnym, na razie najczęściej marnym, skutkiem. W Niemczech uregulowaniu stosunków Google’a z wydawcami miały pomóc tzw. pomocnicze prawa autorskie. Przeforsowano projekt ustawy, która dał niemieckim wydawcom prasy "wyłączne prawo do udostępniania w internecie treści w celach komercyjnych". Stowarzyszenie skupiające wydawców (około 200 podmiotów) o nazwie VG Media pozwało giganta z Mountain View i zobowiązało do odprowadzania opłat licencyjnych za wykorzystanie fragmentów tekstów dłuższych niż "pojedyncze słowa lub krótkie fragmenty". W reakcji na to amerykańska firma ogłosiła, że zmniejszy widoczność treści od wydawców i zaprzestała wyświetlania w wynikach fragmentów tekstów takich serwisów jak Bild.de czy Bunte.de. Wynik był z góry przesądzony. Po usunięciu z wyników wyszukiwania linków do wydawców ruch spadł im co najmniej o 40 %. A co za tym idzie i przychody.

To dlatego Ringier Axel Springer chce ponownie współpracować z Google. Mathias Doepfner prezes Ringier Axel Springer jest nawet zdania, że ten przypadek jest tylko dowodem na to, że wyszukiwarka przestała być tylko wyszukiwarką i dyskryminuje wydawców, a także dopuszcza się nadużyć. Wydawcy szukają jeszcze ratunku w strukturach UE. - Google musi płacić autorom z krajów Unii Europejskiej za wykorzystywanie ich własności intelektualnych - uważa Guenther Oettinger, unijny komisarz do spraw gospodarki cyfrowej i społeczeństwa. I zapowiedział ostatnio przeforsowanie zmiany unijnego prawa, która ma to umożliwić.

Ile zarabia Google w Polsce? Czy płaci podatki?

Spójrzmy w dane ADEX - cykliczne badanie służące do mierzenia wydatków na reklamę internetową. Projekt od 7 lat realizuje IAB Polska wspólnie z PwC, a jego wyniki stały się standardem rynkowym. Są też bazą dla analiz dotyczących wydatków reklamowych w polskiej sieci. Ostatni dokument dostępny na stronie IAB Polska obejmuje pierwszą połowę 2014 r. W pierwszym półroczu wartość cyfrowej reklamy w Polsce przekroczyła 1,25 mld zł. Marketing w wyszukiwarkach, czyli SEM to aż 37 % tego tortu, a zatem lekko licząc ponad 460 mln zł, czyli prawdopodobnie rocznie ponad 920 mln zł. Nie trzeba wielkiej filozofii, by wiedzieć, że Google przy zasięgu 92,5% wśród polskich internautów (ponad 20 mln internautów) zgarnie w 2014 r. większość z tej kwoty.

Ile z tych z grubsza licząc 900 mln dolarów zostaje w Polsce i wpływa na rozwój naszej gospodarki? Oficjalne dane do jakich można dotrzeć (KRS spółki Google Polska – dostępny m.in. na stronie www.przeswietl.pl) pokazują, że Google Polska w 2012 r. zapłacił nieco ponad 1 mln zł podatków przy sprzedaży na poziomie 155 mln zł. Firma Google zatrudnia w Polsce sporo osób. I pewnie płaci im nieźle – w końcu wybiera zwykle najlepszych z najlepszych. Jednak sama, podobnie jak wiele innych koncernów, korzysta z optymalizacji podatkowej i płaci podatki od dochodów w innych krajach, np. w Irlandii. Część dochodów z AdWords, AdSense i innych produktów Google’a księgowana jest bowiem w Google Ireland Limited (Barrow Street, Dublin).

Gemius, czyli dlaczego Megapanel PBI

Gemius to firma, która wypączkowała z założonej w Polsce 1999 roku firmy Global eMarketing. Już w 2002 roku wdrożyła badanie Prawdziwy Profil, który stał się pierwowzorem obecnego dziś badania Megapanel należącego do spółki PBI. Gemius obecny jest dziś na co najmniej kilkudziesięciu rynkach.

Badanie Prawdziwy Profil, które stało się standardem na naszym rynku i znane jest dziś jako Megapanel PBI (z udziałem panelistów) tym różni się od badań typu Google Analytics, że daje dość przybliżony wizerunek internautów, a nie faktycznie urządzeń z jakich ktoś odwiedził stronę. Badanie powstało na wzór badań telewizyjnych - stąd grupa panelistów. To przecież nie urządzenia klikają w reklamę i podejmują decyzje zakupowe, a ludzie, którzy ich używają. Badania panelowe nie są idealne, ale bazując na iluś tam gospodarstwach domowych są w stanie oddać, po analizie, jakościowo lepszą bazę. W największym skrócie wszyscy bazują na tzw. cookies, czyli wskaźnikach Unique Users (UU) do pokazywania liczby użytkowników na witrynach internetowych. Ta statystyka jest jednak obarczona dużym błędem i generalnie zawyża liczbę użytkowników na stronach – używamy przecież coraz więcej urządzeń. Owszem Real Users (RU) daje zdecydowanie niższe wyniki ilościowe, ale pokazuje lepsze jakościowe dane dotyczące użytkowników.

Badania są pewnego rodzaju wspólną walutą jako używają do rozliczania się między sobą wydawcy serwisów i reklamodawcy. Ci drudzy chce wydać pieniądze na reklamę i muszą dokładnie wiedzieć na co je wydać i co w ramach budżetu otrzymują. Z kolei właściciel witryny usiłuje przekonać reklamodawcę, że ma tych internautów zainteresowanych usługą czy produktem bardzo dużo. Czy systemy pokazujące tylko liczbę wizyt, czy cookies są lepsze od tych, które przybliżają reklamodawcy grupę prawdziwych internautów? Konkretnych osób podejmujących takie a nie inne decyzje zakupowe. Czy narzędzie proponowane przez amerykańskiego giganta przez to, że pokazuje więcej Unikalnych Użytkowników, ma zastąpić produkt rodzimej firmy? Dlatego, że jest stosowane powszechnie, bo jest bezpłatne?

Czy mogła powstać polska konkurencja dla Google'a?

Model biznesowy właściciela Analytics to przede wszystkim pieniądze pozyskane od właścicieli serwisów chcących być widocznymi w wynikach wyszukiwania. Wiele narzędzi Google wciąż pozostaje bezpłatnych, w tym i te analityczne. Gdy jednak chcemy pozyskać wiarygodną, bardziej szczegółową wiedzę musimy sięgać po produkty Premium.

Miałem przyjemność redagować książkę „E-wangeliści. Ucz się od najlepszych twówców polskiego internetu“. W zamieszczonych w niej wypowiedziach Jacka Kawalca, jednego z założycieli Wirtualnej Polski i Zbigniewa Sykulskiego założyciela Merlin.pl, pojawiają się ciekawe wątki dotyczące powstania polskiej wyszukiwarki. Chodzi o okres 1997 – 2003 gdy istniała całkiem realna perspektywa stworzenia wyszukiwarki na bazie Netsprint.pl. Marcin Pery jeden z twórców sukcesu Gemiusa namawiał nawet kiedyś portale do wspólnego kupienie Netsprinta i zbudowania wyszukiwarki zdolnej przeciwstawić się amerykańskim rozwiązaniom.

O tym, że w tamtych latach Google nie wszędzie zmonopolizował rynek wiemy np. z historii rynku południowych sąsiadów. W Czechach wyszukiwarka Seznam.cz ma wciąż 43 % (dane za 2013 r.) udziałów w rynku choć jeszcze w 2011 roku było to 60 %. Nie wspomnę o Rosji gdzie Yandex ma około 60 %, udział w rynku czy Chinach, gdzie tamtejszej wyszukiwarki Baidu używa 64 % internautów.

Co ciekawe instytucje UE, która bardzo chce wspierać europejski e-biznes i często o tym mówi sama korzysta z rozwiązań analitycznych ...Google. W tym roku europejscy dostawcy tego typu narzędzi stworzyli koalicję Web Analytics Alliance. Chcą wspólnymi siłami zachęcić instytucje unijne do korzystania z rozwiązań analitycznych europejskich firm.

***

Dla mnie ani Google Analytics nie jest idealny, ani Megapanel/PBI, ale starałem się spojrzeć na pewne procesy z szerszej i dłuższej perspektywy. Google jest świetną, dopracowaną wyszukiwarką. Niestety, coraz silniejsza monopolistyczna pozycja amerykańskiej firmy, już nie tylko jako wyszukiwarki, zagraża istnieniu tysiącom firm na całym świecie. Nie kwestionuje pozytywnego wpływu Google na światową gospodarkę, nie tylko internetową, bo taki po prostu też jest. Tylko, że pieniądze jakie zarabia amerykański koncern w Polsce mogłyby być – gdyby inaczej potoczyła się historia np. rynku wyszukiwarek – spożytkowane lepiej. Zwłaszcza dla rodzimych przedsiębiorstw, a co za tym idzie i dla nas jako pracowników i podatników. Jak? To już dowolna interpretacja każdego z tych, którzy dotarli do końca tekstu. Próbowałem tylko pokazać fakty związane z wyszukiwarką i powstałą w Polsce dużą firmą badawczą, obecną na wielu rynkach Europy.

poniedziałek, 14 października 2013

Agregacja, monetyzacja, subskrypcja, metric paywall. Znów o zarabianiu na treściach


Internetowi eksperci często i gęsto powtarzają, że wydawcy w internecie pozostają producentami treści, ale nie potrafią na nich wystarczająco dobrze zarabiać. Trzymajmy się tej tezy, gdy rozważamy problemy z monetyzacją treści w sieci i zbyt niskich przychodach rekompensujących nakłady poniesione na ich wyprodukowanie. Zacznijmy jednak od początków sieci w Polsce. Zawsze pojawiają się nazwy Wirtualna Polska i Onet - wciąż istniejące portale. Jaki był ich model biznesowy? Jacek Kawalec, jeden z założyciel WP.pl mówi, że portal na początku miał być agregatorem treści, a jego założyciele nie chcieli, by był medium jako takim. Artur Osiak wspomina jak w początkach istnienia Money.pl (tak wcześniej nazywał się Wirtualny Serwis Ekonomiczny), przepisywał notowania giełdowe i ceny walut z gazet. Obaj wspominają o tym w wywiadach udzielonych w książce „E-wangeliści. Ucz się od najlepszych twórców polskiego internetu“ wyd. Helion.

W drugiej połowie lat 90., gdy kształtował się model biznesowy w internecie, wydawcy prasy mieli się świetnie. Sprzedaż gazet była rewelacyjna - jeden dziennik regionalny potrafił sprzedawać codziennie więcej egzemplarzy niż dziś dziennik ogólnopolski. Pamiętam gdy jako sekretarz redakcji Dziennika Łodzkiego często wstrzymywałem przyjmowanie ogłoszeń bo nie mieściły się w zaplanowanej objętności gazety. Grubszej nie dało się wydrukować, a w punktach przyjęć ogłoszeń ludzie stali w kolejkach, by nadać swoje ogłoszenia. Ceny podnoszono, a klientów nie ubywało...

Internet? Niewielu wydawców, może poza ówczesną Rp.pl, interesowało się nim w drugiej połowie lat 90. (np. Gazeta.pl wystartowała dopiero w 2001 r.). Na początku tego tysiąclecia, po internetowej bańce w USA, wydawcy jeszcze bardziej uwierzyli, że sieć nie jest poważnym terenem budowanie przychodów. W tym czasie portale pracowicie budowały swój model biznesowy (agregacja treści, reklama displayowa) obficie czerpiąc z materiałów produkowanych przez gazety. Mógłbym ciągnąć opowieść, ale wszyscy ją znają. Jedni ogólnie, inni szczegóły, ale główną walutą internetową były i są odsłony. Obojętnie jak generowane, ale zależność była prosta: „jakiś“ content, internauta i jego uwaga skierowana na reklamę = pieniądze. Kompetencje biznesowe w internecie były po stronie podmiotów stricte onlinowych. Wydawcy wchodząc do gry kilka lat później przyjęli reguły obowiązujące w tym kanale. Na szczeście nie wszyscy i to się szybko zmienia.

Uzasadnione opinie „to print nadal utrzymuje internet“ szybciej odchodziłyby w przeszłość, gdyby odważniej i efektywniej eksperymentowano z modelami biznesowymi. Ostatnio szybko przybywa zwolenników pobierania opłat za dostęp do serwisu, choćby w modelu metric paywall. Metryczny paywall to często zapowiadany freemium gdzie część artykułów, strony główne i działów można obejrzeć za darmo. Dopiero po np. przeczytanym 20., czy 10. materiale pojawia się zachęta do rejestracji, a później opłaty. Model ten masowo wprowadzają serwisy amerykańskie, brytyjskie, m.in. na Słowacji wdraża spółka Piano Media. I to ze sporymi sukcesami jak dowiedziałem się nieoficjalnie.

Przypuszczenia, że znajdą się chętni na płacenia za dostęp do serwisu nie są całkowicie bezpodstawne. Do zważenia są zawsze utracone odsłony (a zatem i przychody) niewygenerowane przez internautów, którzy odejdą zrażeni wizją płacenia kontra ewentualne przychody z rejestrujących się użytkowników.

Najważniejsza jest precyzyjna analiza: kto może kupić ów dostęp? Amerykański strateg Greg Swanson z firmy konsultingowej ITZ w swojej prezentacji z 2012 roku dzieli internautów na 3 kategorie: przypadkowo odwiedzających serwis (Fly-by audience), przypadkowo lojalnych (Incidental Loyalists) oraz lojalnych internautów (Core Loyalists – nazwijmy ich hard userami).

Rozkład ruchu w przykładzie analizowanym dla jednego z serwisów lokalnych w USA (screeny), pokazuje, że aż 47 % wizyt generowali przypadkowi internauci, 35 % „incydentalnie wierni“, a zaledwie 18 % hard userzy. Jak widać na kolejnym screenie zdecydowanie odmiennie wyglądają proporcje gdy mówimy o odsłonach. Za 90 % odsłon w omawianym w przykładzie odpowiadają hard userzy. Innymi słowy najwięcej pieniędzy z reklam ów serwis zarabia na wiernych użytkownikach.

Dlaczego zatem nie próbować zmienić modelu reklamowego z displayowego w subskrypcyjny? Zagrożeń jest kilka. Specjaliści z biura reklamy mówią: - Spadną nam odsłony – nie zarobimy! Redaktorzy: - Internauci przestaną odwiedzać nas serwis, bo gdy znajdą zamkniętą treść wybiorą bezpłatną konkurencję, nawet z gorszej jakości contentem. Wszystko to prawda, tylko że problem z pobieraniem opłat za dostęp do treści zawsze polega na precyzyjnym określeniu wartości dla najbardziej zaangażowanych użytkowników. To trochę opowieść jak ze sprzedażą gazety. Wielu potencjalnych klientów widzi ją w kiosku, czasem ogląda okładkę, a nawet czyta 1 materiał, ale odkłada na półkę. Inni czasem kupują gazetę – stąd wydawca zawsze drukuje więcej egzemplarzy (ponosząc straty), by w punktach dystrybucji zawsze była. No i prenumeratorzy - ci nie dość, że wierni to bardzo precyzyjnie mierzalni (druk, prenumerata, itd.).





W internecie coraz bardziej chodzi o dokładne analizowanie tego co czytają odbiorcy. Hard userzy, czyli użytkownicy wierzący w markę, chcąc pozostawać w kontakcie z treścią, tytułem, autorami powracają codziennie. To oni – w omawianym wypadku metrycznego paywalla i liczby 18 % - zobaczą zachętę do rejestracji po 10. czy 20. artykule w miesiącu, a w konsekwencji zachętę do płacenia za treść. Oczywiście jeśli proces wdrażania metrycznego paywalla nie będzie prowadzony wystarczająco ostrożnie istnieje zagrożenie, że drastycznie spadnie oglądalność. Jak dowiedziałem się nieoficjalnie na Słowacji coś takiego się zdarzyło w jednym z serwisów obecnych w systemie Piano Media. Związani z serwisem hard użytkownicy odejdą „zabierając“ ze sobą odsłony i przychody serwisu.

Oczywiście model metryczny nie jest jedyny, nie jest remedium na problem generowania odpowiedniej skali przychodów z działalności online. Opiera się jednak na takim podejściu do treści, gdzie więcej uwagi przywiązuje się do badania oczekiwań czytelników/internautów, analizowaniu efektywności, niż jedynie prostym monetyzowaniu przypadkowych klientów. Dla mnie metric paywall to trochę jak wybór: czy lepiej robić dobry serwis dla 100 wiernych użytkowników i zarabiać na nich 1000 zł, czy lepiej produkt dla 1000 przypadkowych odbiorców i zarabiać na nich 100 zł?