Pokazywanie postów oznaczonych etykietą Google. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą Google. Pokaż wszystkie posty

wtorek, 11 listopada 2014

Megapanel PBI czy Google Analytics? Dlaczego warto stawiać nie tylko na amerykańskie giganty

Kilka dni temu na Facebooku pojawił się pewien wpis na profilu założyciela Spidersweb.pl – Przemka Pająka. Dotyczył Megapanelu PBI. Autor kwestionował jego wiarygodność jako wiarygodnego narzędzia mierzącego ruch na serwisie, a jednocześnie podkreślał obiektywizm Google. Cyt. - Na pewno Google jest bardziej obiektywny niż Megapanel, bo stosuje tą samą metodologię dla wszystkich - komentował swój wpis Przemysław Pająk.

Zainspirowało mnie to i postanowiłem pogrzebać w pamięci, książkach, by zakwestionować tok myślenia, że amerykański i bezpłatny produkt zawsze - zwłaszcza w długoletniej perspektywie - jest dla nas lepszy. No i niejako przy okazji opisuję historię polskiego internetu, która mógłby, gdyby nie kilka okoliczności, wyglądać inaczej. Także w obszarze wyszukiwarek.

W 1997 roku w internecie nie istniała jeszcze wyszukiwarka Google, ale od 3 lat istniała wyszukiwarka Infoseek (link przekierowuje do stron koncernu Walta Disneya). Google Inc. została założona właściwie w 1998 r. przez dwóch doktorantów Uniwersytetu Standforda Amerykanina Larry’ego Page’a i Rosjanina Siergieja Brina. Opracowali nowatorską wówczas metodę analizy powiązań hipertekstowych - algorytm Backub przemianowany później na Page Rank, którą wykorzystali w prototypie obecnej znanej wyszukiwarki. To w 1997 r., czyli 17 lat temu na serwerach Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego uruchomiono polską wersję wyszukiwarki Infoseek. Jeżeli ktoś wtedy chciał coś znaleźć w polskim internecie często wykorzystywał do tego tej wyszukiwarki (inne to www.altavista.pl, www.hotbot.com)

Google przetrwał bańkę internetową, Infoseek - nie

Google przetrwał bańkę internetową na przełomie tysiącleci, niestety wyszukiwarka Infoseek nie. W 2000 r. polska wersja wyszukiwarki Infoseek wraz z bazą została odkupiona od Infoseek Co. przez firmę IVP, by później wejść w skład portalu Arena.pl (kto jeszcze pamięta ten projekt?). Po dość krótkiej działalności Areny zakończonej spektakularnym bankructwem wyszukiwarka zniknęła z naszego rynku. A później i światowego. Do dziś istnieje jednak polska wersja strony, a nawet działa część przekierowań.

Już w sierpniu 2008 r. Google na rynku amerykańskim obejmował ok. 63 % rynku wyszukiwarek, a Yahoo odpowiadał za ok. 20 %. Wydawcy amerykańscy w drugiej połowie pierwszego dziesięciolecia tego wieku uznawali, że ruch w serwisach pochodzący z Google na poziomie 30 - 50 % nie jest niczym zaskakującym i niebezpiecznym. Polskie strony - może tylko z wyjątkiem portali, które zbudowały swój zasięg kilka lat temu - mają dziś wskaźniki nie odbiegające od tych danych. Twierdziłbym nawet, że wiele polskich serwisów jest jeszcze bardziej uzależnionych od ruchu z Google. Tymczasem wielu fachowców uważa, że „zdrowa“ struktura ruchu to 1/3 z wyszukiwarek, 1/3 z odwiedzin bezpośrednich, a 1/3 z referrali, czyli linków w tym z social media. I do tego wszyscy starają się dążyć.

Nie jest tajemnicą, że Google w indeksowaniu treści i odpowiadaniu na zapytania internautów bierze pod uwagę około 200 czynników wpływających na takie a nie inne miejsce w wynikach. Szerzej pisze o tym na blogach wielu specjalistów od SEO.

Tajemnice indeksacji robotów Google

Wielu producentów treści (pozostańmy przy określeniu – wydawcy) nie może przeboleć tego, że Google zarabia na treściach przez nich wytworzonych wyświetlając reklamy. Firma z Monutain View nie dzieli się tymi przychodami. Co ciekawe na YouTube, należącym także do Google, program partnerski pozwala twórcom zarabiać na reklamach. W licznych polemikach na temat tego jak Google działa w obszarze indeksowanych tekstów i zdjęć, czy robi to uczciwie pojawia się i argument, że tylko wydawanie coraz większych kwot na googlowskie AdWords pozwala zachować dobrą widoczność dla jego robotów. Dowodem mają być kłopoty wielu serwisów po każdorazowej aktualizacji mechanizmów Google typu Panda. Tajemnicą poliszynela jest szybkość indeksacji i widoczności zasobów, bo... nie jest wyłącznie zależna o działań SEO, ale właśnie od wydatków na AdWords. Dla właścicieli serwisów to trudne do zaakceptowania, że im więcej wydają na AdWords tym są lepiej „widziani przez Google“. Nie dość, że Google zarabia na treściach to jeszcze każe sobie płacić za to, by być lepiej widocznym. Dla wyszukiwarki perfekcyjny model biznesowy, niestety zabójczy dla podmiotów tworzących treść gdyż to one ponoszą koszty jej wytworzenia, a argumenty o ruchu pozyskiwanym od giganta stają się coraz mniej wiarygodne.

Wydawcy powszechnie próbują uregulować stosunki z amerykańską wyszukiwarką. Z różnym, na razie najczęściej marnym, skutkiem. W Niemczech uregulowaniu stosunków Google’a z wydawcami miały pomóc tzw. pomocnicze prawa autorskie. Przeforsowano projekt ustawy, która dał niemieckim wydawcom prasy "wyłączne prawo do udostępniania w internecie treści w celach komercyjnych". Stowarzyszenie skupiające wydawców (około 200 podmiotów) o nazwie VG Media pozwało giganta z Mountain View i zobowiązało do odprowadzania opłat licencyjnych za wykorzystanie fragmentów tekstów dłuższych niż "pojedyncze słowa lub krótkie fragmenty". W reakcji na to amerykańska firma ogłosiła, że zmniejszy widoczność treści od wydawców i zaprzestała wyświetlania w wynikach fragmentów tekstów takich serwisów jak Bild.de czy Bunte.de. Wynik był z góry przesądzony. Po usunięciu z wyników wyszukiwania linków do wydawców ruch spadł im co najmniej o 40 %. A co za tym idzie i przychody.

To dlatego Ringier Axel Springer chce ponownie współpracować z Google. Mathias Doepfner prezes Ringier Axel Springer jest nawet zdania, że ten przypadek jest tylko dowodem na to, że wyszukiwarka przestała być tylko wyszukiwarką i dyskryminuje wydawców, a także dopuszcza się nadużyć. Wydawcy szukają jeszcze ratunku w strukturach UE. - Google musi płacić autorom z krajów Unii Europejskiej za wykorzystywanie ich własności intelektualnych - uważa Guenther Oettinger, unijny komisarz do spraw gospodarki cyfrowej i społeczeństwa. I zapowiedział ostatnio przeforsowanie zmiany unijnego prawa, która ma to umożliwić.

Ile zarabia Google w Polsce? Czy płaci podatki?

Spójrzmy w dane ADEX - cykliczne badanie służące do mierzenia wydatków na reklamę internetową. Projekt od 7 lat realizuje IAB Polska wspólnie z PwC, a jego wyniki stały się standardem rynkowym. Są też bazą dla analiz dotyczących wydatków reklamowych w polskiej sieci. Ostatni dokument dostępny na stronie IAB Polska obejmuje pierwszą połowę 2014 r. W pierwszym półroczu wartość cyfrowej reklamy w Polsce przekroczyła 1,25 mld zł. Marketing w wyszukiwarkach, czyli SEM to aż 37 % tego tortu, a zatem lekko licząc ponad 460 mln zł, czyli prawdopodobnie rocznie ponad 920 mln zł. Nie trzeba wielkiej filozofii, by wiedzieć, że Google przy zasięgu 92,5% wśród polskich internautów (ponad 20 mln internautów) zgarnie w 2014 r. większość z tej kwoty.

Ile z tych z grubsza licząc 900 mln dolarów zostaje w Polsce i wpływa na rozwój naszej gospodarki? Oficjalne dane do jakich można dotrzeć (KRS spółki Google Polska – dostępny m.in. na stronie www.przeswietl.pl) pokazują, że Google Polska w 2012 r. zapłacił nieco ponad 1 mln zł podatków przy sprzedaży na poziomie 155 mln zł. Firma Google zatrudnia w Polsce sporo osób. I pewnie płaci im nieźle – w końcu wybiera zwykle najlepszych z najlepszych. Jednak sama, podobnie jak wiele innych koncernów, korzysta z optymalizacji podatkowej i płaci podatki od dochodów w innych krajach, np. w Irlandii. Część dochodów z AdWords, AdSense i innych produktów Google’a księgowana jest bowiem w Google Ireland Limited (Barrow Street, Dublin).

Gemius, czyli dlaczego Megapanel PBI

Gemius to firma, która wypączkowała z założonej w Polsce 1999 roku firmy Global eMarketing. Już w 2002 roku wdrożyła badanie Prawdziwy Profil, który stał się pierwowzorem obecnego dziś badania Megapanel należącego do spółki PBI. Gemius obecny jest dziś na co najmniej kilkudziesięciu rynkach.

Badanie Prawdziwy Profil, które stało się standardem na naszym rynku i znane jest dziś jako Megapanel PBI (z udziałem panelistów) tym różni się od badań typu Google Analytics, że daje dość przybliżony wizerunek internautów, a nie faktycznie urządzeń z jakich ktoś odwiedził stronę. Badanie powstało na wzór badań telewizyjnych - stąd grupa panelistów. To przecież nie urządzenia klikają w reklamę i podejmują decyzje zakupowe, a ludzie, którzy ich używają. Badania panelowe nie są idealne, ale bazując na iluś tam gospodarstwach domowych są w stanie oddać, po analizie, jakościowo lepszą bazę. W największym skrócie wszyscy bazują na tzw. cookies, czyli wskaźnikach Unique Users (UU) do pokazywania liczby użytkowników na witrynach internetowych. Ta statystyka jest jednak obarczona dużym błędem i generalnie zawyża liczbę użytkowników na stronach – używamy przecież coraz więcej urządzeń. Owszem Real Users (RU) daje zdecydowanie niższe wyniki ilościowe, ale pokazuje lepsze jakościowe dane dotyczące użytkowników.

Badania są pewnego rodzaju wspólną walutą jako używają do rozliczania się między sobą wydawcy serwisów i reklamodawcy. Ci drudzy chce wydać pieniądze na reklamę i muszą dokładnie wiedzieć na co je wydać i co w ramach budżetu otrzymują. Z kolei właściciel witryny usiłuje przekonać reklamodawcę, że ma tych internautów zainteresowanych usługą czy produktem bardzo dużo. Czy systemy pokazujące tylko liczbę wizyt, czy cookies są lepsze od tych, które przybliżają reklamodawcy grupę prawdziwych internautów? Konkretnych osób podejmujących takie a nie inne decyzje zakupowe. Czy narzędzie proponowane przez amerykańskiego giganta przez to, że pokazuje więcej Unikalnych Użytkowników, ma zastąpić produkt rodzimej firmy? Dlatego, że jest stosowane powszechnie, bo jest bezpłatne?

Czy mogła powstać polska konkurencja dla Google'a?

Model biznesowy właściciela Analytics to przede wszystkim pieniądze pozyskane od właścicieli serwisów chcących być widocznymi w wynikach wyszukiwania. Wiele narzędzi Google wciąż pozostaje bezpłatnych, w tym i te analityczne. Gdy jednak chcemy pozyskać wiarygodną, bardziej szczegółową wiedzę musimy sięgać po produkty Premium.

Miałem przyjemność redagować książkę „E-wangeliści. Ucz się od najlepszych twówców polskiego internetu“. W zamieszczonych w niej wypowiedziach Jacka Kawalca, jednego z założycieli Wirtualnej Polski i Zbigniewa Sykulskiego założyciela Merlin.pl, pojawiają się ciekawe wątki dotyczące powstania polskiej wyszukiwarki. Chodzi o okres 1997 – 2003 gdy istniała całkiem realna perspektywa stworzenia wyszukiwarki na bazie Netsprint.pl. Marcin Pery jeden z twórców sukcesu Gemiusa namawiał nawet kiedyś portale do wspólnego kupienie Netsprinta i zbudowania wyszukiwarki zdolnej przeciwstawić się amerykańskim rozwiązaniom.

O tym, że w tamtych latach Google nie wszędzie zmonopolizował rynek wiemy np. z historii rynku południowych sąsiadów. W Czechach wyszukiwarka Seznam.cz ma wciąż 43 % (dane za 2013 r.) udziałów w rynku choć jeszcze w 2011 roku było to 60 %. Nie wspomnę o Rosji gdzie Yandex ma około 60 %, udział w rynku czy Chinach, gdzie tamtejszej wyszukiwarki Baidu używa 64 % internautów.

Co ciekawe instytucje UE, która bardzo chce wspierać europejski e-biznes i często o tym mówi sama korzysta z rozwiązań analitycznych ...Google. W tym roku europejscy dostawcy tego typu narzędzi stworzyli koalicję Web Analytics Alliance. Chcą wspólnymi siłami zachęcić instytucje unijne do korzystania z rozwiązań analitycznych europejskich firm.

***

Dla mnie ani Google Analytics nie jest idealny, ani Megapanel/PBI, ale starałem się spojrzeć na pewne procesy z szerszej i dłuższej perspektywy. Google jest świetną, dopracowaną wyszukiwarką. Niestety, coraz silniejsza monopolistyczna pozycja amerykańskiej firmy, już nie tylko jako wyszukiwarki, zagraża istnieniu tysiącom firm na całym świecie. Nie kwestionuje pozytywnego wpływu Google na światową gospodarkę, nie tylko internetową, bo taki po prostu też jest. Tylko, że pieniądze jakie zarabia amerykański koncern w Polsce mogłyby być – gdyby inaczej potoczyła się historia np. rynku wyszukiwarek – spożytkowane lepiej. Zwłaszcza dla rodzimych przedsiębiorstw, a co za tym idzie i dla nas jako pracowników i podatników. Jak? To już dowolna interpretacja każdego z tych, którzy dotarli do końca tekstu. Próbowałem tylko pokazać fakty związane z wyszukiwarką i powstałą w Polsce dużą firmą badawczą, obecną na wielu rynkach Europy.

niedziela, 15 czerwca 2014

Afera Gozdyry: social media to nadal pole minowe, którego dziennikarze nie rozbroili

Dziennikarze myślący o swojej przyszłości (nie tylko w internecie) nie mogli nie zauważyć ostatniej afery z Twittera. Mowa o sytuacji gdy dziennikarka Polsatu - Agnieszka Gozdyra zamieściła w tweecie bardzo obszerny fragment artykułu z Wprost, a w konsekwencji pyskówki z Michałem Majewskim, z tego tygodnika, została zawieszona przez szefostwo stacji.

Nie chcę zajmować się dyskusją między Gozdyrą a Majewskim, wolę spojrzeć na powód zdarzenia, czyli opublikowanie scanu artykułu, a także na tłumaczenie jakiego użyła dziennikarka Polsatu. Jeszcze bardziej interesuje mnie podejście niektórych dziennikarzy do praw autorskich, zachowanie branży w serwisach społecznościowych, a zwłaszcza brak umiejętności rozróżniania co robimy prywatnie a co służbowo.



Martwi mnie brak świadomości wielu dziennikarzy, że czasem podcinają gałąź na której siedzą. Gozdyra tłumaczyła się pisząc „Przecież się na was powołuję...“. Trzeba jednak odróżnić skuteczne „powołanie się“, oczywiście z linkiem, od użycia treści w sposób nie wymagający zapoznania się ze źródłem określonej przez Majewskiego słowami: To kradzież.

Media utrzymują się z dwóch źródeł z pieniędzy odbiorców (cena egzemplarzowa, subskrypcja, abonament, prenumerata) i/lub reklamodawców. Jakby nie patrzeć na nasze prawo a zwłaszcza jego stosowanie jest opisane wystarczająco dokładnie. Nie jestem prawnikiem jednak nigdzie nie widziałem przekonującej interpretacji, że całkowicie legalne jest republikowanie całości lub większości materiału (bez stosownej opłaty za taką treść; patrz przykład fotograf Daniel Morel kontra agencja AFP).

Taką tezę lansują „otwartyści“ napędzani ideą, że dla rozwoju społeczeństwa ważny jest jak najszerszy dostęp w internecie do osiągnięć nauki i kultury. Trzeba przyznać, że „otwartyści” chcą regulacji prawnych, które pomogą zabezpieczać dobro tych, którzy tworzą udostępniane treści. Tyle tylko, że trochę innymi kategoriami rządzi się treść ulotna, często wypracowana dużym nakładem sił i środków a posiadająca wartość naprawdę bardzo krótko.

Retweetowanie tekstu z tygodnika nie jest, li tylko, przeoczeniem czy błędem. Coraz wyraźniej widać związek między dostępnością treści (bezpłatnie kolportowanej często przez samych dziennikarzy; także na Twitterze), a spadkami przychodów wydawnictw. Gdy główny materiał dziennika, tygodnika, serwisu, czy stacji telewizyjnej jest kolportowany przez innych jako link, omówienie (niestety, w serwisach www często bez linku) to znakomicie. Napędzamy w ten sposób wszyscy wzajemnie swoją oglądalność, słuchalność – po prostu sprzedaż danego produktu. Co wtedy, gdy rzesza potencjalnych klientów zapozna się bezpłatnie z wartościową treścią? Branża dziennikarska dziwi się często, że kondycja wydawnictw jest coraz gorsza. Szanuj prawa autorskie innych, jeżeli chcesz by szanowali Twoje, a w konsekwencji szanuj przychody cudze, by inni dali Ci zarabiać na Twoim produkcie. Twój pracodawca będzie miał z czego zapłacić Ci pensję czy wierszówkę.

Inne cele niż dziennikarz w kanałach social media ma bloger, marketingowiec, czy polityk. Szeroko o tym pisze Eryk Mistewicz namawiając wszystkich do marketingu narracyjnego i opowiadania historii. Czy skutecznie to już temat na inny wpis. A, że sami internauci udostępniają pełne treści nie dziwi - lata przyzwyczajeń. Jerzy Baczyński, red. naczelny Polityki w wywiadzie w TokFM podkreśla: "...media tradycyjne są dziś mocno obecne w tym nowym internetowym świecie. O ile jednak jest on atrakcyjny z punktu widzenia zasięgu, dotarcia do publiczności, to okazał się kompletnie niedochodowy. W ogóle jednym z wielkich wyzwań współczesności jest komercjalizacja internetu. Wiele osób poświęca dziennie całe godziny na aktywność w sieci, ktoś z tego korzysta, czasem na dużą skalę, ale to nie wywołuje obiegu pieniądza, nie tworzy PKB, muszą zarabiać w tradycyjnej gospodarce."

Warto w tym miejscu rozróżnić działania zmierzające do budowanie zasięgu danej marki, rozpoznawalności brandu od szerokiego kolportowania treści bezpłatnie w, złudnej oczywiście, nadziei, że to zgodne z prawem. Także mityczne, przynajmniej dla mnie, rankingi cytowalności nie przekładają się bezpośrednio na wierszówki, pensje i miejsca pracy w mediach. Redaktorzy naczelni nie płacą przecież dziennikarzom „cytowalnością“, a jeśli komukolwiek jest ona dziś potrzebna to głównie działom sprzedaży. A i to nie zawsze bo reklamodawca szuka skutecznego dotarcia do klienta na swój produkt, czy usługę, a dziś – coraz częściej niestety – uzyskuje ją bez pośrednictwa mediów.

Dziś dziennikarze powinni zapamiętać termin – delinearyzacja (autorstwa Bernard Poulet w książce „Śmierć gazet i przyszłość informacji). Dla internauty dziś często nie istnieje „pierwsza strona” rozumiana, tak jak w gazecie. Dociera do tekstów czy zdjęć z linków w Google, czy w social media. Często nie wie nawet w jakim jest serwisie. W internecie każdy artykuł żyje swoim życiem, ma unikalne, własne zalety. A dziennikarz w sieci „warty” jest tyle ile zarabiają jego treści. Ale nie tylko w internecie w postaci dyktatu odsłon. Internet to tylko jeden z kanałów dystrybucji treści. Zresztą najlepsze materiały w sieci to już nie tylko te, które przyciągają najwięcej internautów (PV), ale takie przy których emitowane są najdroższe reklamy!

Co ważne w gazecie dziennikarz kryje się za brandem. Czy ktoś w kiosku poprosi o gazetę z tekstem Jana Kowalskiego? W sieci odbiorca „kupuje” dziennikarza, a nie tylko jego pracodawcę! Internet to współczesna weryfikacja umiejętności oraz budowanie pozycji zawodowo-rynkowej, zresztą nie tylko dziennikarzy. A prawdziwym problemem w epoce nadpodaży treści już nie jest samo jej wytworzenie, a dotarcie do odbiorcy. Dlatego świadomi dziennikarze coraz częściej angażują się na Twitterze czy Facebooku. Współczesny dziennikarz nie tylko pisze, czy fotografuje, ale coraz aktywniej poszukuje odbiorcy na swój produkt. Kilkanaście lat temu kolega w redakcji regionalnego dziennika żartował, że dojdzie do tego, że dziennikarze będą sami rozwozić gazety do kiosków. Niewiele się pomylił, tyle tylko, że w internecie popularyzujemy treść, by zwiększać przychody. Obojętnie czy w sieci czy offline.

Media amerykańskie wdrożyły już własne kodeksy zachowań dziennikarzy w serwisach społecznościowych. W Polsce wciąż nie rozstrzygnięto problemu kiedy mój profil na Twitterze, Facebooku czy Instagramie jest profilem całkowicie służbowym, a kiedy jest prywatny? Czy zachowania i wpisy jakich dokonuję w profilu prywatnym na Facebooku/Twitterze nie pozostają bez wpływu na moją wiarygodność i wizerunek jako dziennikarza, redaktora, komentatora?

I jeszcze słowo po co to wszystko robimy. Jarosław Kuźniar z TVN24 podczas jednej z konferencji wspominał w swoim wystąpieniu, że w USA transfery dziennikarskie między stacjami telewizyjnymi obejmują już opłatę za liczbę followersów na Twitterze (1 dolar = 1 followers?). Dziennikarska gwiazda zabiera przecież swoich fanów ze sobą, a gdy jest ich kilka milionów jest co wyceniać (@jarekkuzniar gdy piszę te słowa ma ponad 83 tys. śledzących profil).

PS Podsumowanie czasu poświęconego na stworzenie tego wpisu, proporcje w procentach:
  • przemyślenie konstrukcji tekstu – 5 %
  • pisanie tekstu – 50 %
  • opytmalizacja, SEO redakcyjne w tym wyszukanie fraz w Google Trends – 5 %
  • linkowanie do źródeł – 5 %
  • redagowanie, korekta – 5 %
  • promocja wpisu w kanałach social media – 30 %

niedziela, 18 maja 2014

Jak Google staje się wrogiem publicznym numer jeden w Europie


Dość niespodziewanie nadszedł czas gdy firma Google znalazła się pod silnym ostrzałem decydentów i mediów. Wreszcie zaczęto na poważnie dostrzegać zagrożenie jakie amerykański koncern z Mountain View niesie nie tylko dla wolności dyskusji (paradoksalnie sam stawia się w roli obrońcy tego prawa), ale dla równych warunków działania, dla konkurencyjności światowej gospodarki. UWAGA. Tekst jest pełen linków do źródeł.


Przypomnieć też warto, że jeszcze w lutym Google zdecydował się zmienić część zasad pokazywania wyników wyszukiwania. Od lat różne firmy oskarżały bowiem wyszukiwarkę, że ma uprzywilejowaną pozycję i m.in. manipuluje wynikami wyszukiwania oraz faworyzuje własne usługi, oczywiście kosztem konkurencji. Do sojuszu podmiotów krytykujących praktyki amerykańskiej firmy przyłączyło się ostatnio m.in. Allegro.

W tej walce na straconej pozycji eksperci stawiają wydawców prasowych skazując ich na powolne wyginięcie. Niestety, poza radami, że media tradycyjne mają się zmienić mało jest konkretów, porad, podpowiedzi jak prowadzić onlinowy biznes. Spór nabiera coraz intensywniejszych barw. Dla przypomnienia kilka ważnych wydarzeń z ostatnich kilku lat. 

Cykl życia firmy Google już kilka lat temu przekroczył pułap krytyczny. Gracze rynkowi (nie tylko wydawcy) nie protestowali dopóki Google był jedynie li tylko wyszukiwarką. Gdy w ostatnich 5 – 8 latach powstało wiele nowych produktów, które mogą konkurować z obecnymi dotąd na rynku graczami zaczęto na poważnie widzieć zagrożenie. MONOPOLU - nie bójmy się tego słowa. 


Google nie zawsze wygrywa. Często odnosi połowiczny sukces. Firma skapitulowała (a raczej zatrzymała swoją ekspansję) gdy przyszło jej walczyć o projekt Book Search. Pomysł Google opierał się na skanowaniu książek do cyfrowej bazy danych bez uzyskania wcześniejszej zgody właścicieli praw autorskich. Działania zwróciły uwagę wielu podmiotów prawa autorskiego i wydawców książek. Pozwali oni firmę z Mountain View o naruszenie praw autorskich, a Google zgodził się na polubowne załatwienie sprawy i wypłatę 125 mln dolarów odszkodowania. Produkt Book Search istnieje wciąż w sieci, ale nie jest jakoś aktywnie promowany przez Google, choćby z racji ubogiej oferty.

Google potrafi zrobić krok w tył, gdy natrafia na zdecydowany sprzeciw. Tak stało się w kilku krajach gdzie wydawcy (a dokładniej wydawcy tradycyjni, czyli prasowi) sprzeciwili się darmowej prezentacji swoich treści w automatycznie działającej wyszukiwarce/agergatorze Google News. W wielu krajach od lat toczy się walka o to, by firma Google płaciła producentom treści za nagłówki wykorzystane w Google News albo za fragmenty newsów prezentowane w wyszukiwarkach. Ostre spory na tym tle do tej pory wybuchały w Belgii, Francji, Niemczech oraz Brazylii.

Belgia. Firma Google porozumiała się z wydawcami. Umowa obejmowała m.in. różne umowy na usługi reklamy, w tym na reklamowanie usług Google w gazetach. Amerykańska firma w zamian obiecała zwiększenie widoczności treści wydawców m.in. przez współpracę przy dystrybucji treści na platformach mobilnych. Porozumienie warte było ponoć 6 mln dolarów. Amerykańska wyszukiwarka miała płacić za artykuł, do którego użytkownik dotrze za ich pośrednictwem lub za pomocą agregatora wiadomości (jak Google News). Marki takie jak "Le Soir", czy "La Libre Belgique" zniknęły z wyników wyszukiwania Google'a. Po tym jak drastycznie zmniejszył się ruch na stronach i przychody z reklam18 lipca 2011 roku, po miesiącu obowiązywania nowych zasad, belgijska Copiepresse się poddała. Uznała, że nie będzie egzekwować tego prawa.

Brazylia. Brazylijskie Narodowe Stowarzyszenie Prasy zakazało Google linkowania oraz umieszczania część leadu do publikowanych newsów wytworzonych przez firmy należące do stowarzyszenia. Według Stowarzyszenia internauci zamiast odwiedzać strony skanują tylko nagłówki i wstępy w Google News, a wydawcy tracą na takim zachowaniu.

Niemcy. Tu uregulowaniu stosunków Google=wydawcy całkiem niedawno pomogły tzw. pomocnicze prawa autorskie. Przeforsowano projekt ustawy, która daje niemieckim wydawcom prasy "wyłączne prawo do udostępniania w internecie treści w celach komercyjnych". Niemieckie gazety nie chcą bynajmniej zniknąć z internetu. Wydawcom - zresztą nie tylko u naszych zachodnich sąsiadów - nie przeszkadza, że firma z Mountain View w wynikach wyszukiwania oprócz tytułu publikuje fragmenty tekstów, ale sprzeciw budzi to, że nie płaci za to ani centa. A przecież Google zarabia na reklamach wyświetlanych przy wynikach wyszukiwania. Co ciekawe Google rozpętał w Niemczech silną akcję antylobbingową. W internecie firma z Mountain View dowodziła m.in., że ustawa miała oznaczać "wyższe koszty, mniej informacji i ogólną niepewność prawną".  Doszło do tego, że powstała strona z listą witryn, zawierających informacje na temat lokalnych członków parlamentu. To wszystko po to, by niemieccy internauci interweniowali bezpośrednio u nich, oczywiście zgodnie z interesem Google.
Gra na polu internetowym toczy się według reguł, które nadają takie firmy jak Google, Facebook, czy Twitter. Wydawcy ciągle gonią, próbują się dostosować, szukają skutecznych modeli biznesowych. Efekty są tego bardzo różne. Ostatnio z New York Times wyciekł interesujący wewnętrzny raport redakcyjny. Ich "innovation team" przez pół roku zbierał informacje by przeanalizować cyfrową strategię, zresztą nie tylko samej NYT.

Gdy mowa o NYT i jego próbach dostosowania się do cyfrowej rzeczywistości zawsze przypomina mi się film „prognoza przyszlości“ w postaci filmu science fiction o losach Google i NYT. 8-minutowy film stworzony przez fikcyjne Muzuem Historii Mediów przedstawiał „plan rozwoju“ Google. Film do obejrzenia tutaj http://idorosen.com/mirrors/robinsloan.com/epic/


W tym filmie, kilka lat temu, przewidywano, że w 2014 NYT ma przestać ukazywać się w princie. Patrząc na wyniki finansowe najważniejszej chyba gazety na świecie raczej nic tego nie zapowiada. Z problemami, ale wydawca ciągle rozwija cyfrową działalność, czerpiąc już z niej więcej przychodów niż z tradycyjnej. Można odwrócić bieg historii?

* Jeśli czytasz ten tekst i widzisz błąd lub informacje, które mogą ją uzupełnić proszę o sygnał - mail. Chętnie uzupełnię tekst o kolejne przykłady oraz linki do interesujących wpisów.

czwartek, 16 stycznia 2014

Orwell pomylił się o 30 lat. Kilka słów o prywatności w sieci


George Orwell w słynnej powieści „1984“ opisał życie jednostki kontrolowane i podporządkowane wszechpotężnej władzy państwa. Informacje dotyczące zakupów dokonywanych przez Google (zakup firmy NestLabs z zarejestrowanymi ponad 100 patentami zajmującej się nowoczesnymi termostatami, a faktycznie grupę osób, które współtworzyły w Apple słynnego iPoda), czy pojawienie się aplikacji NameTag firmy FacialNetwork pokazują, że  rzeczywistość dogoniła przewidywania w powieści Orwella. Autor powieści pomylił się „tylko“ o około 30 lat.

Wydaje ci się, że starannie chronisz swoje dane osobowe na Facebooku, że profil jest prywatny? Albo, że Twój adres e-mail jest Twoją własnością? Facebook nie pozwala zmienić głównego adresu e-mail, ani numeru telefonu używanego do logowania się w swoim serwisie gdy chcemy korzystać z usługi wysyłania kodu dostępu na numer telefonu. Albo gdy masz tylko adres G-mail znajomego a nie wiesz czy ma konto na FB skorzystaj ze strony pozwalającej zresetować hasło - jesteś w stanie odnaleźć jego profil na Facebooku.

Z kolei dzięki najnowszej aplikacji NameTag można zrobić zdjęcie dowolnej osobie na ulicy, a program sam odszuka na podstawie twarzy jej profile w serwisach społecznościowych i pokaże wszystkie „ślady“ jakie ta osoba zostawiła w cyfrowym świecie. Łatwiej Ci będzie zacząć rozmowę bo zobaczsz nawet linki do profili danej osoby w serwisach randkowych. W USA aplikacja sprawdza nawet rejestr skazanych za przestępstwa seksualne. 

W powieści „1984“ wszechobecne teleekrany pełniły funkcję kamer szpiegowskich, wymuszających bezwzględne posłuszeństwo na ludziach. Najdrobniejsze wykroczenie poza normę (np. niezadowolony wyraz twarzy) jest natychmiast wykrywane i kończy się ewaporacją, czyli nie tylko śmiercią fizyczną, ale i całkowitym wymazaniem z historii. Osoba, która została ewaporowana, oficjalnie nigdy nie istniała. 

W ciągu ostatnich 10 – 20 lat nie tylko internetowym korporacjom udało się przekonać  społeczeństwo, że cyfrowa rzeczywistość jest fajna i lepsza niż ta w której żyjemy. Uwierzyliśmy. Zapatrzeni w możliwości technologii, zachwyceni urokiem serwisów social media. I nie tylko ich. Systematycznie oddajemy coraz więcej prywatności w cudze ręce. Bezkrytycznie wypełniamy formularze danych Googla, czy Facebooka. Wrzucamy zdjęcia (pozowane, fotoszopowane, selfie z dziubkiem) i filmy do sieci, tagujemy je, decydujemy się na umieszczanie w świecie digital wielkiej cześci swego życia prywatnego i zawodowego. 

Z ręką na sercu ilu z nas czyta bardzo szczegółowe i długie regulaminy, który serwuje nam serwis obsługujący jedną szóstą część ludzkości - Facebook? Albo Google? Po raz pierwszy po wielu miesiącach zajrzałem do ustawień swego profilu w Google. Ile tam nowych pól, dziwnych powiązań z dziesiątkami usług Google! Nie słychać też o masowych protestach internautów przeciwko najnowszej możliwości wysyłania maili jakie oferuje Gmail dzięki koncie w Google+. Od teraz możesz dostać maila od osób, które są w Twoim kręgu znajomych. Nie muszą znać Twego maila. 

Ponoć to wszystko w naszym dobrze pojętym interesie. Także w imię naszego bezpieczeństwa Microsoft udostępni dane użytkowników Skype’a rosyjskim służbom specjalnym. Koncern będzie przechowywał przez 6 miesięcy nagrania rozmów, pliki i dane. Nie robi już na nikim wrażenia wieść, że amerykańska Agencja Bezpieczeństwa Narodowego (NSA) posiada technologię, która umożliwia połączenie się z komputerami drogą radiową. NSA jest teraz w stanie włamać się do komputera, który nie jest podłączony do internetu.

W relacjach z państwem i z cyfrowymi korporacjami mamy coraz mniej prywatności. Na własne życzenie. Standardy i umowy nie są przestrzegane, a prawa obywateli ustępują interesom rządów. W „1984“ Orwella istniały 3 mocarstwa (Eurazja – zdominowana przez ZSRR, Oceania – zdominowana przez USA, Wschódazja – pod wodzą Chin), które nieustannie prowadzą wojny. Dwa mocarstwa nawiązywały sojusz i atakowały trzecie. Następnie sojusz został zrwany, jeden z sojuszników przechodził na stronę wroga i wspólnie z nim atakował osamotnione państwo. Wojna trwała cały czas, ponieważ żadnemu z przywódców nie zależało na zakończeniu. Dzięki temu rządzącym łatwiej jest wymóc posłuszeństwo...

Czytaj też w serwisie Panoptykon.org co w zakresie prywatności internautów w sieci wydarzyło się w 2013 roku

niedziela, 17 listopada 2013

Internauto, jesteś tylko danymi osobowymi, czyli walutą jaką obracają internetowe giganty z USA

Zewsząd otaczają nas kamery, a systemy monitoringu wrosły w nasz krajobraz podobnie jak w świadomość internautów, że absolutną koniecznością jest posiadanie konta na Facebooku, Twitterze czy Google +. Do obu zjawisk podchodzimy z nieufnością, tylko że monitoring służy bezpieczeństwu (raczej post factum) a internet chronieniu społeczeństw przed zjawiskiem terroryzmu (tak mówią rządy) i jednocześnie robieniu pieniędzy.

5 listopada przypadała rocznica nieudanego zamachu na budynek brytyjskiego parlamentu przeprowadzona przez Guya Fawkesa. Angielski katolik, który w 1605 roku wystąpił w białej masce stał się idolem hackerów, a potem protestujących w 2012 na całym świecie przeciwko porozumieniu ACTA. W styczniu ubiegłego 2012 roku w dziesiątkach miast Polski młodzież wyszła na ulicę na zawołanie hackerów. Pod hasłami sprzeciwu wobec cenzurowaniu sieci przez blokowanie pirackich stron, domagania się danych osobowych piratów (ACTA) pokazała władzy co myśli o takich pomysłach.

Tymczasem 5 listopada, gdy miano się sprzeciwić prowadzeniu masowych podsłuchów głównie przez amerykański program NSA, niesprawiedliwości, szpiegowaniu społeczeństw, wprowadzaniu żywności modyfikowanej genetycznie w polskich miastach protestujących było często mniej niż ...zebranych dziennikarzy. Sprzeciw wobec ACTA, czyli AntiCounterfeiting Trade Agreement tj. międzynarodowej umowie utrzymywanej długo w tajemnicy - której zapisy przewidywały oddanie w ręce posiadaczy praw autorskich zbyt wielkiej władzy - zebrał na ulicach ok. 200 tys. Polaków.

Katarzyna Szymielewicz, prezes fundacji Panoptykon, która sprzeciwia się rosnącemu nadzorowi nad społeczeństwem, działa na rzecz ochrony praw człowieka i monitorowania zagrożeń związanych z nadmiernym nadzorem obywatela przez państwo w wypowiedzi dla Gazeta.pl w styczniu 2013 r. tak mówiła o powodach sprzeciwu m.in.: „Mogła być najróżniejsza, nie tylko wynikająca z potrzeby obrony szeroko pojętej wolności w internecie czy dostępu do kultury. Ludzi mógł oburzyć sam pomysł poddania ściślejszej regulacji sieci, która w powszechnym rozumieniu jest "Dzikim Zachodem" dzisiejszego świata. Mogli także dawać upust swojemu wkurzeniu na rządzących, występując w roli polskiej wersji ruchu Occupy".


Gdy mowa o międzynarodowych koncernach wykorzystujących oddawane przez nas dobrowolnie dane osobowe publicznych protestów jest mniej, a społeczne przyzwolenie jakby jest większe. Ostatnio wprowadzenie możliwości komentowania n YouTube tylko z użyciem profilu na Google + oburzyło wielu młodszych internautów, głównie tzw. gimbazę. Anonimowe komentowanie było wartością samą w sobie, no i dzięki temu internetowy hejt miał niezłą pożywkę. Pozornie tylko wygląda na to, że Google chodzi o to, by jeszcze bardziej zwiększyć zasięg. Pojedynczy użytkownik, a nawet grupa nie stanowi dla właściciela takiej usługi wielkiej wartości. Wartością są dane niezwiązane z naszą tożsamością a nasze upodobania czy dane dotyczące statusu społecznego. W internecie po prostu światowe koncerny walczą o wielkie pieniądze. Dokładne określenie do jakiej grupy konsumentów należymy sprawia, że Facebook, czy Google mogą handlować jeszcze dokładniejszymi danymi. Dopasowanie oferty reklamowej do grupy użytkowników staje się prostsze i – przede wszystkim – skuteczniejsze. A co za tym idzie droższe.

Kilkanaście dni temu brytyjskie Tesco poinformowało o wprowadzeniu technologii skanowania twarzy o nazwie OptimEyes. Pozwala ona odczytywać płeć klientów w kolejce do kasy i podzielić ich na 3 grupy wiekowe tak, by trafić z właściwą ofertą reklamową i wyświetlić ją na monitorze. Największa wypożyczalnia internetowa - Netflix zbiera różnego typu dane o swych użytkownikach by z prawie 75 % skutecznością zaproponować obejrzenie kolejnego filmu. Amazon - największy sklep internetowy na świecie wie już nie tylko, ilu widzów i jak oceniło dany film, ale potrafi łączyć te dane z profilem demograficznym, historią zakupów oraz ocenami innych filmów.

To nie science fiction. Rzeczywistość 2013 roku to gigantyczne zbiory danych przetwarzanych przez wielkie serwery. Najlepsza, najcenniejsza waluta o ludziach, którzy kupują dany model samochodu, latają samolotami na wakacje do konkretnych miejsc, klikają w linki w konkretnych porada tygodnia, czy dnia, to dane zbierane o naszym przemieszczaniu się z pomocą systemu GPS i Google Maps, itd.

Mizerny protest przeciwko NSA (Marsz Miliona Masek) kiepsko rokuje nam jako internautom. Nie interesujemy się tym zbytnio, a rządy i koncerny robią swoje. Konsumenci są z jednej strony coraz bardziej wrażliwi na wyłudzanie danych osobowych a jednocześnie miliony Polaków, zresztą jak setki milionów innych internautów, oddają mniej lub bardziej świadomie te dane gigantom online. Czy po aferze PRISM nasz rząd robi wszystko, by ograniczyć na naszym terenie działania tych koncernów? Czy polscy politycy bardziej skupieni są na wykorzystywaniu kanałów social mediowych na komunikowaniu się ze społeczeństwem niż na dbaniu o interes wyborców? Nadzwyczaj silna pozycja amerykańskich gigantów nie tylko na polskim rynku idzie w parze z zapewnieniami amerykańskiego rządu, że to dla naszego bezpieczeństwa stworzono tajny program inwigilacji elektronicznej PRISM. Dość zastanawiające jest, że do programu gromadzenia danych dobrowolnie przystąpiły wszystkie wielkie firmy nowych technologii, oprócz wspomnianych wcześniej także Microsoft, AOL, Apple, Yahoo, Skype...

O istnieniu programu Safe Harbor wie chyba niewielu internautów. Od 2000 roku istnieje porozumienie na mocy którego Unia Europejska uznaje, że amerykańskie firmy, które przystąpią do programu Safe Harbor są traktowane jako zapewniające odpowiedni poziom ochrony danych osobowych i mogą je przesyłać z Europy do USA. Po aferze z PRISM uznano, że dane nie są jednak bezpieczne i dlatego w Komisji Europejskiej toczą się prace wzmacniające gwarancję naszej prywatności, nowe prawo miałoby zmuszać koncerny do informowania użytkowników, że jesteśmy profilowani, czy w jakim celu i komu przekazywane są nasze dane osobowe.

Może ta KE i UE czasem się na coś przydają...

Fot. Vincent Diamante

sobota, 5 października 2013

Dlaczego w internecie dziennikarze nie wierzą w swoje umiejętności? Na marginesie „afery z Lisem“

Dziennikarze i publicyści grillują Tomasza Lisa i Tomasza Machałę. Po części słusznie. Po słynnych parówkach i jeansach przyszedł czas na utyskiwanie nad kolejną reklamą natywną o napoju i hotelach. Ten felieton to próba opowieści nie o reklamie natywnej czy nadszarpywaniu niezależności dziennikarskiej, rozregulowania standardów moralnych a o pewnym braku wiary w to co samemu się robi. Dziennikarze chyba wciąż nie wierzą, że to co wytwarzają ma jakąś wartość. No i nie pomagają im w tym sami wydawcy...



Gdy kilkanaście miesięcy temu startował portal Natemat.pl po cichu - myślę, że nie ja jeden – liczyłem, że portal będzie oferował dostęp do tekstów dopiero po rejestracji i za opłatą. Że model biznesowy tego przedwsięwzięcie będzie przeczył temu co obowiązywało w sieci – monetyzacji użytkownika poprzez wyświetlanie reklam display. Zmiana jakościowa nie nastąpiła bo Tomasz Lis i jego zespół zwątpił w to co chciał oferować: wartość dodaną jaką jest dobra robota dziennikarska. Usiadł okrakiem na barykadzie i usiłuje przekonać, że dla dobra swojego biznesu warto naruszać zasady moralne i sprzedawać siebie, czyli...
eksperymentować z reklamą natywną.

Ten banał wszyscy znamy: wiele lat temu wydawcy popełnili błąd i nie docenili internetu. Łatwo zgodzili się na to, by ich treści pojawiały się za darmo. Nauczyli odbiorców (pozwalając rosnąć portalom horyzontalnym), że treść jest dostępna zawsze, na wyciągnięcie ręki i nie trzeba za nią płacić. A jeśli już to mają płacić swoją uwagą, klikaniem w przeszkadzające banery reklamowe. Światowe giganty z USA są zainteresowane podtrzymywaniem tezy, że internet powinien być przestrzenią wolnej informacji, darmowej informacji. Producenci treści ponoszą koszty jej wytworzenia, ale nie otrzymują wystarczającej stopy zwrotu z dostarczania treści do sieci. Google, Facebook czy Twitter zagospodarowują sporą część czasu i uwagi potencjalnych klientów. Pora wspólnie walczyć np. z Google, który dziś jest nie tylko wyszukiwarką, a swoimi produktami potrafi ściągać z polskiego rynku połowę pieniędzy wydawanych w sieci w Polsce. Zastanowić się z pożytków płynących z Facebooka. Spadają zasięgi fan pagów? Facebook ci je przywróci. Za pieniądze...

Trzeba przyklasnąć Tomaszowi Lisowi i Tomkowi Machale, że odważnie mierzą się z problemem monetyzacji w sieci. Tylko czy to jest dobra droga? Jak w uciesznej wersji „natywnej informacji“ Marek Magierowski przedstawiał na Twitterze, mieszanie roli dziennikarza i sprzedawcy reklamy nie jest, napiszę enigamtycznie, rozsądne. Moim zdaniem Natemat.pl i wielu innych wydawców odważnie musi powiedzieć swoim odbiorcom: nasza treść kosztuje, jej wytworzenie nie jest tanie. Internauto płać!
Pewnie będzie źle, bardzo źle na początku jeśli chodzi o przychody. Piano Media – o ile wolno mi cokolwiek ujawniać – nie powala skalą przychodów, ale cały czas liczba kupujących dostępy wyraźnie rośnie. Co przyciąga ludzi? Jakościowa, czy raczej unikalna i wartościowa treść. Nie lubię słowa jakościowa – dla każdego co innego jest bowiem wyznacznikiem jakości. Tego dnia gdy Mariusz Szczygieł opublikował słynny reportaż o nauczycielce Agora, a zarazem i Piano zanotowała rekordowe wzrosty. Po kilku miesiącach bardzo wielu z tych incydentalnie zainteresowanych reportażem nadal jest subskrybentami Piano.

Wracając do sytuacji, która mogłaby (tryb przypuszczający :) powstać po gremialnym zamknięciu dostępów do serwisów wydawców... Swego rodzaju pustkę wypełniłyby portale (ile jest tam treści z PAP, a ile pochodzi z gazet), czy blogerzy. Jeśli – jako dziennikarze – tego się boimy to nie wierzymy, iż znajdą się ludzie gotowi płacić za naszą pracę. Przy okazji zastanawiam się dlaczego słynny Kominek nie chce pobierać opłat za dostęp do swojej treści? Ma wiernych, wierzących w jego markę czytelników. Albo specjalistyczne portale Antyweb.pl czy Spidersweb.pl już powinny eksperymentować z modelem dobra treść=opłata.

Za co internauta ma płacić? Za treść masową: wypadki, wydarzenia polityczne, czy sportowe, pożary, plotki o celebrytach, itd.? Słowem newsy będące wszędzie w sieci, w tv mielącej 24 godz. na dobę kilka tematów, w radiu, w gazetach? Tymczasem prawdziwe zadanie dziennikarskie to pomaganie odbiorcy w znalezieniu odpowiedzi na pytanie nie co?, gdzie? i kiedy się zdarzyło, ale ...dlaczego. Kształtowanie opinii publicznej, kreowanie świata wartości. Oczywiście część internautów może zechce świadomie wybierać bezpłatny zamiennik, nawet słabej jakości. A jeśli damy mu wartość dodatkową?

Dziennikarze nie mogą zapominać, że zawsze będzie zapotrzebowanie na dobrą usługę. Na wyjaśnianie tego co dzieje się wokół nas. Odbiorca jest gotów zapłacić za coś co stanowi dla niego jakąś wartość. Może chce oszczędzać swój czas i dlatego sięgnie po wyselekcjonowane, przygotowane informacje? Może potrzebuje, by dobrze wyjaśnił mu to ten a nie inny dziennikarz czy redaktor? Zbyt często jednak do świata digital dziennikarze przykładają schematy znane z gazety, radia, czy tv. To nie jest monolog, to jest dialog! A wielu dziennikarzy prasowych, czy telewizyjnych nadal wie lepiej czego potrzebuje ich odbiorca. Nawet gdy korzystają z social media bardziej zajmują się przemawianiem... Wcale lub bardzo rzadko próbują się dowiedzieć co interesuje odbiorców-klientów.

Reklama natywna? Odbieram ten pomysł jako próbę zburzenia ściany jaką dziennikarze i redaktorzy zawsze odgradzali się od reklamy, marketingu. Oczywistą próbę myślenia biznesowego, bo Lis i Machała gdy zostali wydawcami musieli zacząć myśleć nie tylko newsem, opinią, ale i Exelem. Nie rozgrzeszam akcji i reklamy natywnej i nie pochwalam firmowania swoim nazwiskiem produktów. Prawda leży gdzieś pośrodku. Zwłaszcza, że podejścia biznesowego w redakcjach nigdy za wiele nie było. Reklama to coś czym prawdziwy dziennikarz się brzydzi, a redaktorzy naczelni - słusznie - stawiają granice, których nie wolno przekraczać. Przychody reklamowe to zawsze było coś gorszego, czym dziennikarz się nie interesował. Podniecenie w redakcjach wywoływały nie przychody reklamowe a cytowania. Ale nimi nie płaci się wierszówki. Owszem są ważne, w jakiejś części budują wartość brandu ułatwiając zadanie reklamie. Chwała Lisowi i Machale, że próbują myśleć biznesowo, ale ten sposób do końca mi się nie podoba. Exel wymusza eksperymentowanie, ale efekty i szczegóły pewnie lepiej przedstawi wkrótce Arnold Buzdygan http://arnoldbuzdygan.com/, który 30 sierpnia zapowiedział, że dobierze się do wyników finansowych Natemat.pl

Dopóki dziennikarze sami nie uwierzą, że treści, które przygotowują mają wartość, dopóty chętnych do płacenia nie będzie. Udawanie, że jesteśmy niezależni, że nie tracimy niezależności idąc na skróty „firmując“ parówki, jeansy czy napoje izotoniczne nie rozwiąże problemu. Ci, którzy przynoszą pieniądze chcą jednego – dotarcia do swoich klientów. Chcą procesu transakcyjnego w offline, czy online. Firmy nauczyły się już, że nie potrzebują do tego pośredników w postaci mediów. Potrafią docierać do odbiorców kupując AdWordsy w Google czy kampanie na FB. Coraz częściej sygnalizują w reklamach „znajdziesz nas na Facebooku“ co oznacza, że pieniędzy w mediach może być coraz mniej.


Reklamodawca ma swój cel i w świecie digital zadaniem wydawcy a zatem i dziennikarza jest mu to ułatwić. Wiarygodność jednak nie jest na sprzedaż. Zamiast dorabiać ideologię do potrzeby zarabiania, by utrzymać biznes jako dziennikarze powinniśmy szeroko otworzyć się na odbiorców, a tym samym ułatwić zadanie ludziom od reklamy. Nadal cenną wartością dla marek będzie występowanie obok wartościowej treści, obok marek jaką samą w sobie są i powinni być w przyszłości dziennikarze w sieci. Lis i Machała będą mieć większą wartość dla reklamodawcy, gdy będą uprawiać dziennikarstwo, a nie mrugać okiem, że jeden napój jest lepszy niż inne. Mylę się?

Jako środowisko dziennikarskie wyjątkowo uważnie patrzymy sobie na ręce zamiast uważnie przyjrzeć się najważniejszym graczom na rynku. Opowiadać częściej np. o tym, że Google nie płaci w Polsce wystarczająco wysokich podatków albo, że wiele NGO-sów walczących o wolność w sieci finansowanych jest zawoalowany sposób przez giganta z USA (ostre oskarżenie - wiem) zainteresowanego tym, by sieć www była „wolna i otwarta“. Kto z polskich dziennikarzy prowadził śledztwo i interesował się tym, że jednym z udziałowców Google na amerykańskiej giełdzie jest George Soros. Wśród wspierających fundację http://panoptykon.org, jest http://www.opensocietyfoundations.org/, której założycielem jest George Soros... Czy coś zarzucam Panoptykon.org? Nie. Wolałbym jednak wiedzieć dlaczego Google ma taki problem z uczciwym rozliczeniem się z producentami treści.


Chciałem tylko opisać sytuację nie moralizować. Świat nie jest czarno-biały. Prawdziwym problemem nie są ani płatności, ani platformy, tablety, czy smartfony... Internauci wydają pieniądze w sieci, kupują gry, muzykę. Będą płacić za dostęp do treści dziennikarskiej. Zrobią to dopiero wtedy, gdy uwierzą w nią sami dziennikarze. 

.......................................................................................................................

PS Z Google źle, bez niego jeszcze gorzej. Paradoks polega na tym, że krytykując m.in. Google używam jednocześnie jego platformy blogowej. Zaznaczam, że czynię to świadomie.