wtorek, 11 listopada 2014

Megapanel PBI czy Google Analytics? Dlaczego warto stawiać nie tylko na amerykańskie giganty

Kilka dni temu na Facebooku pojawił się pewien wpis na profilu założyciela Spidersweb.pl – Przemka Pająka. Dotyczył Megapanelu PBI. Autor kwestionował jego wiarygodność jako wiarygodnego narzędzia mierzącego ruch na serwisie, a jednocześnie podkreślał obiektywizm Google. Cyt. - Na pewno Google jest bardziej obiektywny niż Megapanel, bo stosuje tą samą metodologię dla wszystkich - komentował swój wpis Przemysław Pająk.

Zainspirowało mnie to i postanowiłem pogrzebać w pamięci, książkach, by zakwestionować tok myślenia, że amerykański i bezpłatny produkt zawsze - zwłaszcza w długoletniej perspektywie - jest dla nas lepszy. No i niejako przy okazji opisuję historię polskiego internetu, która mógłby, gdyby nie kilka okoliczności, wyglądać inaczej. Także w obszarze wyszukiwarek.

W 1997 roku w internecie nie istniała jeszcze wyszukiwarka Google, ale od 3 lat istniała wyszukiwarka Infoseek (link przekierowuje do stron koncernu Walta Disneya). Google Inc. została założona właściwie w 1998 r. przez dwóch doktorantów Uniwersytetu Standforda Amerykanina Larry’ego Page’a i Rosjanina Siergieja Brina. Opracowali nowatorską wówczas metodę analizy powiązań hipertekstowych - algorytm Backub przemianowany później na Page Rank, którą wykorzystali w prototypie obecnej znanej wyszukiwarki. To w 1997 r., czyli 17 lat temu na serwerach Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego uruchomiono polską wersję wyszukiwarki Infoseek. Jeżeli ktoś wtedy chciał coś znaleźć w polskim internecie często wykorzystywał do tego tej wyszukiwarki (inne to www.altavista.pl, www.hotbot.com)

Google przetrwał bańkę internetową, Infoseek - nie

Google przetrwał bańkę internetową na przełomie tysiącleci, niestety wyszukiwarka Infoseek nie. W 2000 r. polska wersja wyszukiwarki Infoseek wraz z bazą została odkupiona od Infoseek Co. przez firmę IVP, by później wejść w skład portalu Arena.pl (kto jeszcze pamięta ten projekt?). Po dość krótkiej działalności Areny zakończonej spektakularnym bankructwem wyszukiwarka zniknęła z naszego rynku. A później i światowego. Do dziś istnieje jednak polska wersja strony, a nawet działa część przekierowań.

Już w sierpniu 2008 r. Google na rynku amerykańskim obejmował ok. 63 % rynku wyszukiwarek, a Yahoo odpowiadał za ok. 20 %. Wydawcy amerykańscy w drugiej połowie pierwszego dziesięciolecia tego wieku uznawali, że ruch w serwisach pochodzący z Google na poziomie 30 - 50 % nie jest niczym zaskakującym i niebezpiecznym. Polskie strony - może tylko z wyjątkiem portali, które zbudowały swój zasięg kilka lat temu - mają dziś wskaźniki nie odbiegające od tych danych. Twierdziłbym nawet, że wiele polskich serwisów jest jeszcze bardziej uzależnionych od ruchu z Google. Tymczasem wielu fachowców uważa, że „zdrowa“ struktura ruchu to 1/3 z wyszukiwarek, 1/3 z odwiedzin bezpośrednich, a 1/3 z referrali, czyli linków w tym z social media. I do tego wszyscy starają się dążyć.

Nie jest tajemnicą, że Google w indeksowaniu treści i odpowiadaniu na zapytania internautów bierze pod uwagę około 200 czynników wpływających na takie a nie inne miejsce w wynikach. Szerzej pisze o tym na blogach wielu specjalistów od SEO.

Tajemnice indeksacji robotów Google

Wielu producentów treści (pozostańmy przy określeniu – wydawcy) nie może przeboleć tego, że Google zarabia na treściach przez nich wytworzonych wyświetlając reklamy. Firma z Monutain View nie dzieli się tymi przychodami. Co ciekawe na YouTube, należącym także do Google, program partnerski pozwala twórcom zarabiać na reklamach. W licznych polemikach na temat tego jak Google działa w obszarze indeksowanych tekstów i zdjęć, czy robi to uczciwie pojawia się i argument, że tylko wydawanie coraz większych kwot na googlowskie AdWords pozwala zachować dobrą widoczność dla jego robotów. Dowodem mają być kłopoty wielu serwisów po każdorazowej aktualizacji mechanizmów Google typu Panda. Tajemnicą poliszynela jest szybkość indeksacji i widoczności zasobów, bo... nie jest wyłącznie zależna o działań SEO, ale właśnie od wydatków na AdWords. Dla właścicieli serwisów to trudne do zaakceptowania, że im więcej wydają na AdWords tym są lepiej „widziani przez Google“. Nie dość, że Google zarabia na treściach to jeszcze każe sobie płacić za to, by być lepiej widocznym. Dla wyszukiwarki perfekcyjny model biznesowy, niestety zabójczy dla podmiotów tworzących treść gdyż to one ponoszą koszty jej wytworzenia, a argumenty o ruchu pozyskiwanym od giganta stają się coraz mniej wiarygodne.

Wydawcy powszechnie próbują uregulować stosunki z amerykańską wyszukiwarką. Z różnym, na razie najczęściej marnym, skutkiem. W Niemczech uregulowaniu stosunków Google’a z wydawcami miały pomóc tzw. pomocnicze prawa autorskie. Przeforsowano projekt ustawy, która dał niemieckim wydawcom prasy "wyłączne prawo do udostępniania w internecie treści w celach komercyjnych". Stowarzyszenie skupiające wydawców (około 200 podmiotów) o nazwie VG Media pozwało giganta z Mountain View i zobowiązało do odprowadzania opłat licencyjnych za wykorzystanie fragmentów tekstów dłuższych niż "pojedyncze słowa lub krótkie fragmenty". W reakcji na to amerykańska firma ogłosiła, że zmniejszy widoczność treści od wydawców i zaprzestała wyświetlania w wynikach fragmentów tekstów takich serwisów jak Bild.de czy Bunte.de. Wynik był z góry przesądzony. Po usunięciu z wyników wyszukiwania linków do wydawców ruch spadł im co najmniej o 40 %. A co za tym idzie i przychody.

To dlatego Ringier Axel Springer chce ponownie współpracować z Google. Mathias Doepfner prezes Ringier Axel Springer jest nawet zdania, że ten przypadek jest tylko dowodem na to, że wyszukiwarka przestała być tylko wyszukiwarką i dyskryminuje wydawców, a także dopuszcza się nadużyć. Wydawcy szukają jeszcze ratunku w strukturach UE. - Google musi płacić autorom z krajów Unii Europejskiej za wykorzystywanie ich własności intelektualnych - uważa Guenther Oettinger, unijny komisarz do spraw gospodarki cyfrowej i społeczeństwa. I zapowiedział ostatnio przeforsowanie zmiany unijnego prawa, która ma to umożliwić.

Ile zarabia Google w Polsce? Czy płaci podatki?

Spójrzmy w dane ADEX - cykliczne badanie służące do mierzenia wydatków na reklamę internetową. Projekt od 7 lat realizuje IAB Polska wspólnie z PwC, a jego wyniki stały się standardem rynkowym. Są też bazą dla analiz dotyczących wydatków reklamowych w polskiej sieci. Ostatni dokument dostępny na stronie IAB Polska obejmuje pierwszą połowę 2014 r. W pierwszym półroczu wartość cyfrowej reklamy w Polsce przekroczyła 1,25 mld zł. Marketing w wyszukiwarkach, czyli SEM to aż 37 % tego tortu, a zatem lekko licząc ponad 460 mln zł, czyli prawdopodobnie rocznie ponad 920 mln zł. Nie trzeba wielkiej filozofii, by wiedzieć, że Google przy zasięgu 92,5% wśród polskich internautów (ponad 20 mln internautów) zgarnie w 2014 r. większość z tej kwoty.

Ile z tych z grubsza licząc 900 mln dolarów zostaje w Polsce i wpływa na rozwój naszej gospodarki? Oficjalne dane do jakich można dotrzeć (KRS spółki Google Polska – dostępny m.in. na stronie www.przeswietl.pl) pokazują, że Google Polska w 2012 r. zapłacił nieco ponad 1 mln zł podatków przy sprzedaży na poziomie 155 mln zł. Firma Google zatrudnia w Polsce sporo osób. I pewnie płaci im nieźle – w końcu wybiera zwykle najlepszych z najlepszych. Jednak sama, podobnie jak wiele innych koncernów, korzysta z optymalizacji podatkowej i płaci podatki od dochodów w innych krajach, np. w Irlandii. Część dochodów z AdWords, AdSense i innych produktów Google’a księgowana jest bowiem w Google Ireland Limited (Barrow Street, Dublin).

Gemius, czyli dlaczego Megapanel PBI

Gemius to firma, która wypączkowała z założonej w Polsce 1999 roku firmy Global eMarketing. Już w 2002 roku wdrożyła badanie Prawdziwy Profil, który stał się pierwowzorem obecnego dziś badania Megapanel należącego do spółki PBI. Gemius obecny jest dziś na co najmniej kilkudziesięciu rynkach.

Badanie Prawdziwy Profil, które stało się standardem na naszym rynku i znane jest dziś jako Megapanel PBI (z udziałem panelistów) tym różni się od badań typu Google Analytics, że daje dość przybliżony wizerunek internautów, a nie faktycznie urządzeń z jakich ktoś odwiedził stronę. Badanie powstało na wzór badań telewizyjnych - stąd grupa panelistów. To przecież nie urządzenia klikają w reklamę i podejmują decyzje zakupowe, a ludzie, którzy ich używają. Badania panelowe nie są idealne, ale bazując na iluś tam gospodarstwach domowych są w stanie oddać, po analizie, jakościowo lepszą bazę. W największym skrócie wszyscy bazują na tzw. cookies, czyli wskaźnikach Unique Users (UU) do pokazywania liczby użytkowników na witrynach internetowych. Ta statystyka jest jednak obarczona dużym błędem i generalnie zawyża liczbę użytkowników na stronach – używamy przecież coraz więcej urządzeń. Owszem Real Users (RU) daje zdecydowanie niższe wyniki ilościowe, ale pokazuje lepsze jakościowe dane dotyczące użytkowników.

Badania są pewnego rodzaju wspólną walutą jako używają do rozliczania się między sobą wydawcy serwisów i reklamodawcy. Ci drudzy chce wydać pieniądze na reklamę i muszą dokładnie wiedzieć na co je wydać i co w ramach budżetu otrzymują. Z kolei właściciel witryny usiłuje przekonać reklamodawcę, że ma tych internautów zainteresowanych usługą czy produktem bardzo dużo. Czy systemy pokazujące tylko liczbę wizyt, czy cookies są lepsze od tych, które przybliżają reklamodawcy grupę prawdziwych internautów? Konkretnych osób podejmujących takie a nie inne decyzje zakupowe. Czy narzędzie proponowane przez amerykańskiego giganta przez to, że pokazuje więcej Unikalnych Użytkowników, ma zastąpić produkt rodzimej firmy? Dlatego, że jest stosowane powszechnie, bo jest bezpłatne?

Czy mogła powstać polska konkurencja dla Google'a?

Model biznesowy właściciela Analytics to przede wszystkim pieniądze pozyskane od właścicieli serwisów chcących być widocznymi w wynikach wyszukiwania. Wiele narzędzi Google wciąż pozostaje bezpłatnych, w tym i te analityczne. Gdy jednak chcemy pozyskać wiarygodną, bardziej szczegółową wiedzę musimy sięgać po produkty Premium.

Miałem przyjemność redagować książkę „E-wangeliści. Ucz się od najlepszych twówców polskiego internetu“. W zamieszczonych w niej wypowiedziach Jacka Kawalca, jednego z założycieli Wirtualnej Polski i Zbigniewa Sykulskiego założyciela Merlin.pl, pojawiają się ciekawe wątki dotyczące powstania polskiej wyszukiwarki. Chodzi o okres 1997 – 2003 gdy istniała całkiem realna perspektywa stworzenia wyszukiwarki na bazie Netsprint.pl. Marcin Pery jeden z twórców sukcesu Gemiusa namawiał nawet kiedyś portale do wspólnego kupienie Netsprinta i zbudowania wyszukiwarki zdolnej przeciwstawić się amerykańskim rozwiązaniom.

O tym, że w tamtych latach Google nie wszędzie zmonopolizował rynek wiemy np. z historii rynku południowych sąsiadów. W Czechach wyszukiwarka Seznam.cz ma wciąż 43 % (dane za 2013 r.) udziałów w rynku choć jeszcze w 2011 roku było to 60 %. Nie wspomnę o Rosji gdzie Yandex ma około 60 %, udział w rynku czy Chinach, gdzie tamtejszej wyszukiwarki Baidu używa 64 % internautów.

Co ciekawe instytucje UE, która bardzo chce wspierać europejski e-biznes i często o tym mówi sama korzysta z rozwiązań analitycznych ...Google. W tym roku europejscy dostawcy tego typu narzędzi stworzyli koalicję Web Analytics Alliance. Chcą wspólnymi siłami zachęcić instytucje unijne do korzystania z rozwiązań analitycznych europejskich firm.

***

Dla mnie ani Google Analytics nie jest idealny, ani Megapanel/PBI, ale starałem się spojrzeć na pewne procesy z szerszej i dłuższej perspektywy. Google jest świetną, dopracowaną wyszukiwarką. Niestety, coraz silniejsza monopolistyczna pozycja amerykańskiej firmy, już nie tylko jako wyszukiwarki, zagraża istnieniu tysiącom firm na całym świecie. Nie kwestionuje pozytywnego wpływu Google na światową gospodarkę, nie tylko internetową, bo taki po prostu też jest. Tylko, że pieniądze jakie zarabia amerykański koncern w Polsce mogłyby być – gdyby inaczej potoczyła się historia np. rynku wyszukiwarek – spożytkowane lepiej. Zwłaszcza dla rodzimych przedsiębiorstw, a co za tym idzie i dla nas jako pracowników i podatników. Jak? To już dowolna interpretacja każdego z tych, którzy dotarli do końca tekstu. Próbowałem tylko pokazać fakty związane z wyszukiwarką i powstałą w Polsce dużą firmą badawczą, obecną na wielu rynkach Europy.

niedziela, 15 czerwca 2014

Afera Gozdyry: social media to nadal pole minowe, którego dziennikarze nie rozbroili

Dziennikarze myślący o swojej przyszłości (nie tylko w internecie) nie mogli nie zauważyć ostatniej afery z Twittera. Mowa o sytuacji gdy dziennikarka Polsatu - Agnieszka Gozdyra zamieściła w tweecie bardzo obszerny fragment artykułu z Wprost, a w konsekwencji pyskówki z Michałem Majewskim, z tego tygodnika, została zawieszona przez szefostwo stacji.

Nie chcę zajmować się dyskusją między Gozdyrą a Majewskim, wolę spojrzeć na powód zdarzenia, czyli opublikowanie scanu artykułu, a także na tłumaczenie jakiego użyła dziennikarka Polsatu. Jeszcze bardziej interesuje mnie podejście niektórych dziennikarzy do praw autorskich, zachowanie branży w serwisach społecznościowych, a zwłaszcza brak umiejętności rozróżniania co robimy prywatnie a co służbowo.



Martwi mnie brak świadomości wielu dziennikarzy, że czasem podcinają gałąź na której siedzą. Gozdyra tłumaczyła się pisząc „Przecież się na was powołuję...“. Trzeba jednak odróżnić skuteczne „powołanie się“, oczywiście z linkiem, od użycia treści w sposób nie wymagający zapoznania się ze źródłem określonej przez Majewskiego słowami: To kradzież.

Media utrzymują się z dwóch źródeł z pieniędzy odbiorców (cena egzemplarzowa, subskrypcja, abonament, prenumerata) i/lub reklamodawców. Jakby nie patrzeć na nasze prawo a zwłaszcza jego stosowanie jest opisane wystarczająco dokładnie. Nie jestem prawnikiem jednak nigdzie nie widziałem przekonującej interpretacji, że całkowicie legalne jest republikowanie całości lub większości materiału (bez stosownej opłaty za taką treść; patrz przykład fotograf Daniel Morel kontra agencja AFP).

Taką tezę lansują „otwartyści“ napędzani ideą, że dla rozwoju społeczeństwa ważny jest jak najszerszy dostęp w internecie do osiągnięć nauki i kultury. Trzeba przyznać, że „otwartyści” chcą regulacji prawnych, które pomogą zabezpieczać dobro tych, którzy tworzą udostępniane treści. Tyle tylko, że trochę innymi kategoriami rządzi się treść ulotna, często wypracowana dużym nakładem sił i środków a posiadająca wartość naprawdę bardzo krótko.

Retweetowanie tekstu z tygodnika nie jest, li tylko, przeoczeniem czy błędem. Coraz wyraźniej widać związek między dostępnością treści (bezpłatnie kolportowanej często przez samych dziennikarzy; także na Twitterze), a spadkami przychodów wydawnictw. Gdy główny materiał dziennika, tygodnika, serwisu, czy stacji telewizyjnej jest kolportowany przez innych jako link, omówienie (niestety, w serwisach www często bez linku) to znakomicie. Napędzamy w ten sposób wszyscy wzajemnie swoją oglądalność, słuchalność – po prostu sprzedaż danego produktu. Co wtedy, gdy rzesza potencjalnych klientów zapozna się bezpłatnie z wartościową treścią? Branża dziennikarska dziwi się często, że kondycja wydawnictw jest coraz gorsza. Szanuj prawa autorskie innych, jeżeli chcesz by szanowali Twoje, a w konsekwencji szanuj przychody cudze, by inni dali Ci zarabiać na Twoim produkcie. Twój pracodawca będzie miał z czego zapłacić Ci pensję czy wierszówkę.

Inne cele niż dziennikarz w kanałach social media ma bloger, marketingowiec, czy polityk. Szeroko o tym pisze Eryk Mistewicz namawiając wszystkich do marketingu narracyjnego i opowiadania historii. Czy skutecznie to już temat na inny wpis. A, że sami internauci udostępniają pełne treści nie dziwi - lata przyzwyczajeń. Jerzy Baczyński, red. naczelny Polityki w wywiadzie w TokFM podkreśla: "...media tradycyjne są dziś mocno obecne w tym nowym internetowym świecie. O ile jednak jest on atrakcyjny z punktu widzenia zasięgu, dotarcia do publiczności, to okazał się kompletnie niedochodowy. W ogóle jednym z wielkich wyzwań współczesności jest komercjalizacja internetu. Wiele osób poświęca dziennie całe godziny na aktywność w sieci, ktoś z tego korzysta, czasem na dużą skalę, ale to nie wywołuje obiegu pieniądza, nie tworzy PKB, muszą zarabiać w tradycyjnej gospodarce."

Warto w tym miejscu rozróżnić działania zmierzające do budowanie zasięgu danej marki, rozpoznawalności brandu od szerokiego kolportowania treści bezpłatnie w, złudnej oczywiście, nadziei, że to zgodne z prawem. Także mityczne, przynajmniej dla mnie, rankingi cytowalności nie przekładają się bezpośrednio na wierszówki, pensje i miejsca pracy w mediach. Redaktorzy naczelni nie płacą przecież dziennikarzom „cytowalnością“, a jeśli komukolwiek jest ona dziś potrzebna to głównie działom sprzedaży. A i to nie zawsze bo reklamodawca szuka skutecznego dotarcia do klienta na swój produkt, czy usługę, a dziś – coraz częściej niestety – uzyskuje ją bez pośrednictwa mediów.

Dziś dziennikarze powinni zapamiętać termin – delinearyzacja (autorstwa Bernard Poulet w książce „Śmierć gazet i przyszłość informacji). Dla internauty dziś często nie istnieje „pierwsza strona” rozumiana, tak jak w gazecie. Dociera do tekstów czy zdjęć z linków w Google, czy w social media. Często nie wie nawet w jakim jest serwisie. W internecie każdy artykuł żyje swoim życiem, ma unikalne, własne zalety. A dziennikarz w sieci „warty” jest tyle ile zarabiają jego treści. Ale nie tylko w internecie w postaci dyktatu odsłon. Internet to tylko jeden z kanałów dystrybucji treści. Zresztą najlepsze materiały w sieci to już nie tylko te, które przyciągają najwięcej internautów (PV), ale takie przy których emitowane są najdroższe reklamy!

Co ważne w gazecie dziennikarz kryje się za brandem. Czy ktoś w kiosku poprosi o gazetę z tekstem Jana Kowalskiego? W sieci odbiorca „kupuje” dziennikarza, a nie tylko jego pracodawcę! Internet to współczesna weryfikacja umiejętności oraz budowanie pozycji zawodowo-rynkowej, zresztą nie tylko dziennikarzy. A prawdziwym problemem w epoce nadpodaży treści już nie jest samo jej wytworzenie, a dotarcie do odbiorcy. Dlatego świadomi dziennikarze coraz częściej angażują się na Twitterze czy Facebooku. Współczesny dziennikarz nie tylko pisze, czy fotografuje, ale coraz aktywniej poszukuje odbiorcy na swój produkt. Kilkanaście lat temu kolega w redakcji regionalnego dziennika żartował, że dojdzie do tego, że dziennikarze będą sami rozwozić gazety do kiosków. Niewiele się pomylił, tyle tylko, że w internecie popularyzujemy treść, by zwiększać przychody. Obojętnie czy w sieci czy offline.

Media amerykańskie wdrożyły już własne kodeksy zachowań dziennikarzy w serwisach społecznościowych. W Polsce wciąż nie rozstrzygnięto problemu kiedy mój profil na Twitterze, Facebooku czy Instagramie jest profilem całkowicie służbowym, a kiedy jest prywatny? Czy zachowania i wpisy jakich dokonuję w profilu prywatnym na Facebooku/Twitterze nie pozostają bez wpływu na moją wiarygodność i wizerunek jako dziennikarza, redaktora, komentatora?

I jeszcze słowo po co to wszystko robimy. Jarosław Kuźniar z TVN24 podczas jednej z konferencji wspominał w swoim wystąpieniu, że w USA transfery dziennikarskie między stacjami telewizyjnymi obejmują już opłatę za liczbę followersów na Twitterze (1 dolar = 1 followers?). Dziennikarska gwiazda zabiera przecież swoich fanów ze sobą, a gdy jest ich kilka milionów jest co wyceniać (@jarekkuzniar gdy piszę te słowa ma ponad 83 tys. śledzących profil).

PS Podsumowanie czasu poświęconego na stworzenie tego wpisu, proporcje w procentach:
  • przemyślenie konstrukcji tekstu – 5 %
  • pisanie tekstu – 50 %
  • opytmalizacja, SEO redakcyjne w tym wyszukanie fraz w Google Trends – 5 %
  • linkowanie do źródeł – 5 %
  • redagowanie, korekta – 5 %
  • promocja wpisu w kanałach social media – 30 %

niedziela, 18 maja 2014

Jak Google staje się wrogiem publicznym numer jeden w Europie


Dość niespodziewanie nadszedł czas gdy firma Google znalazła się pod silnym ostrzałem decydentów i mediów. Wreszcie zaczęto na poważnie dostrzegać zagrożenie jakie amerykański koncern z Mountain View niesie nie tylko dla wolności dyskusji (paradoksalnie sam stawia się w roli obrońcy tego prawa), ale dla równych warunków działania, dla konkurencyjności światowej gospodarki. UWAGA. Tekst jest pełen linków do źródeł.


Przypomnieć też warto, że jeszcze w lutym Google zdecydował się zmienić część zasad pokazywania wyników wyszukiwania. Od lat różne firmy oskarżały bowiem wyszukiwarkę, że ma uprzywilejowaną pozycję i m.in. manipuluje wynikami wyszukiwania oraz faworyzuje własne usługi, oczywiście kosztem konkurencji. Do sojuszu podmiotów krytykujących praktyki amerykańskiej firmy przyłączyło się ostatnio m.in. Allegro.

W tej walce na straconej pozycji eksperci stawiają wydawców prasowych skazując ich na powolne wyginięcie. Niestety, poza radami, że media tradycyjne mają się zmienić mało jest konkretów, porad, podpowiedzi jak prowadzić onlinowy biznes. Spór nabiera coraz intensywniejszych barw. Dla przypomnienia kilka ważnych wydarzeń z ostatnich kilku lat. 

Cykl życia firmy Google już kilka lat temu przekroczył pułap krytyczny. Gracze rynkowi (nie tylko wydawcy) nie protestowali dopóki Google był jedynie li tylko wyszukiwarką. Gdy w ostatnich 5 – 8 latach powstało wiele nowych produktów, które mogą konkurować z obecnymi dotąd na rynku graczami zaczęto na poważnie widzieć zagrożenie. MONOPOLU - nie bójmy się tego słowa. 


Google nie zawsze wygrywa. Często odnosi połowiczny sukces. Firma skapitulowała (a raczej zatrzymała swoją ekspansję) gdy przyszło jej walczyć o projekt Book Search. Pomysł Google opierał się na skanowaniu książek do cyfrowej bazy danych bez uzyskania wcześniejszej zgody właścicieli praw autorskich. Działania zwróciły uwagę wielu podmiotów prawa autorskiego i wydawców książek. Pozwali oni firmę z Mountain View o naruszenie praw autorskich, a Google zgodził się na polubowne załatwienie sprawy i wypłatę 125 mln dolarów odszkodowania. Produkt Book Search istnieje wciąż w sieci, ale nie jest jakoś aktywnie promowany przez Google, choćby z racji ubogiej oferty.

Google potrafi zrobić krok w tył, gdy natrafia na zdecydowany sprzeciw. Tak stało się w kilku krajach gdzie wydawcy (a dokładniej wydawcy tradycyjni, czyli prasowi) sprzeciwili się darmowej prezentacji swoich treści w automatycznie działającej wyszukiwarce/agergatorze Google News. W wielu krajach od lat toczy się walka o to, by firma Google płaciła producentom treści za nagłówki wykorzystane w Google News albo za fragmenty newsów prezentowane w wyszukiwarkach. Ostre spory na tym tle do tej pory wybuchały w Belgii, Francji, Niemczech oraz Brazylii.

Belgia. Firma Google porozumiała się z wydawcami. Umowa obejmowała m.in. różne umowy na usługi reklamy, w tym na reklamowanie usług Google w gazetach. Amerykańska firma w zamian obiecała zwiększenie widoczności treści wydawców m.in. przez współpracę przy dystrybucji treści na platformach mobilnych. Porozumienie warte było ponoć 6 mln dolarów. Amerykańska wyszukiwarka miała płacić za artykuł, do którego użytkownik dotrze za ich pośrednictwem lub za pomocą agregatora wiadomości (jak Google News). Marki takie jak "Le Soir", czy "La Libre Belgique" zniknęły z wyników wyszukiwania Google'a. Po tym jak drastycznie zmniejszył się ruch na stronach i przychody z reklam18 lipca 2011 roku, po miesiącu obowiązywania nowych zasad, belgijska Copiepresse się poddała. Uznała, że nie będzie egzekwować tego prawa.

Brazylia. Brazylijskie Narodowe Stowarzyszenie Prasy zakazało Google linkowania oraz umieszczania część leadu do publikowanych newsów wytworzonych przez firmy należące do stowarzyszenia. Według Stowarzyszenia internauci zamiast odwiedzać strony skanują tylko nagłówki i wstępy w Google News, a wydawcy tracą na takim zachowaniu.

Niemcy. Tu uregulowaniu stosunków Google=wydawcy całkiem niedawno pomogły tzw. pomocnicze prawa autorskie. Przeforsowano projekt ustawy, która daje niemieckim wydawcom prasy "wyłączne prawo do udostępniania w internecie treści w celach komercyjnych". Niemieckie gazety nie chcą bynajmniej zniknąć z internetu. Wydawcom - zresztą nie tylko u naszych zachodnich sąsiadów - nie przeszkadza, że firma z Mountain View w wynikach wyszukiwania oprócz tytułu publikuje fragmenty tekstów, ale sprzeciw budzi to, że nie płaci za to ani centa. A przecież Google zarabia na reklamach wyświetlanych przy wynikach wyszukiwania. Co ciekawe Google rozpętał w Niemczech silną akcję antylobbingową. W internecie firma z Mountain View dowodziła m.in., że ustawa miała oznaczać "wyższe koszty, mniej informacji i ogólną niepewność prawną".  Doszło do tego, że powstała strona z listą witryn, zawierających informacje na temat lokalnych członków parlamentu. To wszystko po to, by niemieccy internauci interweniowali bezpośrednio u nich, oczywiście zgodnie z interesem Google.
Gra na polu internetowym toczy się według reguł, które nadają takie firmy jak Google, Facebook, czy Twitter. Wydawcy ciągle gonią, próbują się dostosować, szukają skutecznych modeli biznesowych. Efekty są tego bardzo różne. Ostatnio z New York Times wyciekł interesujący wewnętrzny raport redakcyjny. Ich "innovation team" przez pół roku zbierał informacje by przeanalizować cyfrową strategię, zresztą nie tylko samej NYT.

Gdy mowa o NYT i jego próbach dostosowania się do cyfrowej rzeczywistości zawsze przypomina mi się film „prognoza przyszlości“ w postaci filmu science fiction o losach Google i NYT. 8-minutowy film stworzony przez fikcyjne Muzuem Historii Mediów przedstawiał „plan rozwoju“ Google. Film do obejrzenia tutaj http://idorosen.com/mirrors/robinsloan.com/epic/


W tym filmie, kilka lat temu, przewidywano, że w 2014 NYT ma przestać ukazywać się w princie. Patrząc na wyniki finansowe najważniejszej chyba gazety na świecie raczej nic tego nie zapowiada. Z problemami, ale wydawca ciągle rozwija cyfrową działalność, czerpiąc już z niej więcej przychodów niż z tradycyjnej. Można odwrócić bieg historii?

* Jeśli czytasz ten tekst i widzisz błąd lub informacje, które mogą ją uzupełnić proszę o sygnał - mail. Chętnie uzupełnię tekst o kolejne przykłady oraz linki do interesujących wpisów.

sobota, 19 kwietnia 2014

Rytm życia, czyli dlaczego mobile nie zastąpi całkowicie desktopu

Zwykle jestem ostrożny w wydawaniu ostrych sądów, tak i w dyskusji na temat rosnącej roli mobile byłem do tej pory wstrzemięźliwy w przesądzaniu, że to na pewno będzie „rok mobile“, argumentowaniu, że rosnące udziały użytkowników smartfonów spowodują drastyczny spadek korzystania z  wersji desktopowej. Dziś proponuję prostą lekcję mając w pamięci fizjologię człowieka (potrzeba snu, jedzenia, etc,) oraz obowiązujące dziś metody pracy i wytwarzania dóbr.

Ekspertom wieszczącym śmierć lub całkowitą marginalizację desktopowej wersji korzystania z internetu warto przypomnieć rolę w życiu człowieka jaką odgrywa osobiste urządzenie a jaką urządzenie do pracy. Sięgam po przykład ze świata gdzie smartfony mają niemal wszyscy. Zamieszczam jeden slajd z prezentacji Yasmin Namini Senior Vice President - Chief Consumer Officer, NY Times, New York, którą widziałem podczas konferencji INMA, jesienią 2013 r. w Berlinie. Jak widać na nim konsumpcja treści z użyciem smartfonów odbywa się w określonych porach dnia, a co za tym idzie także sytuacjach życiowych.

Urządzenie osobiste pozwala zachować kontakt ze światem online w podróży, wszędzie tam gdzie nie możemy rozłożyć laptopa czy tabletu z powodów oczywistych. Co ciekawe gdy mowa o korzystaniu z tabletu większość ankietowanych ostatnio i tak wskazuje na używanie przeglądarki www. Aplikacja - co widać coraz wyraźniej od 3, 4 lat - to dziś słowo identyfikowane z użytecznością, a nie serwisami newsowymi. Gdy jeszcze dodamy do tego trend w budowaniu stron www w wersji Responsive Web Design (RWD) mamy pełny obraz powodów dla których, przynajmniej wydawcy stron informacyjnych, nie muszą bać się gwałtownego przesunięcia się użytkowanika z desktopu na rzecz wersji moblinych (obojętnie jak definiowanych).

Prześledźmy tygodniowy czas jaki przeciętny internauta przeznacza na poszczególne czynności. Założenie jest takie, że większość pracy “biurowej” odbywa się dziś z użyciem komputera biurowego lub laptopa, a więc wersji desktopowej.

Tydzień, czyli 24 godziny x 7 dni = 168 godzin.

Tydzień                                                        168 godzin
Sen                                                                52,5 godziny = średnio 7,5
Praca biurowa                                             40 godzin = 5 dni x 8 godzin
Posiłki                                                           8,5 godziny = 7 x 3 x średnio ok. 25 minut
Toaleta codzienna                                        3,5 godziny = 7 x 2 x 15 minut
Podróże do pracy                                         6 godzin = 5 x 2 x ok. 30 minut
Zakupy                                                         1,5 godziny = ok. 5 x 15 minut
Weekendy, bez komputera                         4,5 godziny = 3 x 1,5 godziny         
Czynności codziennie (n. sprzątanie)        7 godzin = 7 x 1 godzina

Razem                                                          123,5 godziny
Reszta nieprzypisana                                 44,5 godziny

Nawet uzwględniając, że w pracy w przerwach na papierosa, czy jedzenie użytkownik sięga po smartfona nie uzbiera się tego więcej jak kilkadziesiąt dodatkowych minut tygodniowo. Jakby na to nie patrzeć i ile, by nie wydzierać z czasu poświęcanego na inne czynności (jedzenie, podróż komunikacją publiczną, część czasu wolnego) zostaje wciąż mniej niż 50 godzin tygodniowo. Tylko na siedzenie i wpatrywanie się w smartfona? A przecież w zestawieniu nie uwzględniłem wielu aspektów życia bo one mogą być wykorzystane zarówno tak samo na używanie smartfona, jak i pozostawanie offline. 

Co wynika z prostego przykładu? Fizyczną niemożliwością jest korzystać dużo więcej z wersji mobilnych serwisów (używać smartfona) niż dziś bez naruszenia delikatnej równowagi między pracą, życiem a czynnościami fizjologicznymi na których trzeba się skupić. Trudno przecież myć zęby i jednocześnie serfować w sieci drugą ręką – przynajmniej ja tego nie próbuję. Trudno prowadzić auto i patrzeć w ekran iPhone’a (przyznaję czasem spoglądam, ale tylko gdy stoję w korku :). Nie da się zmienić proporcji bez ingerencji w naszą pracę, a zwłaszcza sposób jej wykonywania. Jest sporo zawodów gdzie być może dojdzie do całkowitego porzucenia desktopu (np. handlowiec w terenie), a smartfon całkowicie zastąpi laptopa, ale dziesiątek czynności i zawodów to nie dotyczy, np. kasjerka, bankowiec, kierowca autobusu, tysiące innych.

Bawi mi trochę prognozowanie przyszłości poprzez pryzmat ludzi obracających się tylko wokół znajomych z biurowej przestrzeni, wyciąganie wniosków z zachowań podobnych sobie hard userów internetu i smartfonów. Przewidujących, że wszyscy będą pracować patrząc jedynie w smartfony. Trochę to przypomina prognozy sprzed lat gdy TV miała zabić radio – a to ma się wciąż świetnie. Potem kino miało zabić TV – oba kanały się dziś uzupełniają się oferując innego rodzaju doświadczenie. Dziś multitasking pozwala oglądać TV i szukać informacji na tablecie czy smartfonie. Nieustannie w mediach przebija się teza, że internet z bezpłatnymi wiadomościami zabije gazety. Tymczasem wciąż print oferuje inne przeżycia niż strona www, a dla twórców dobrej treści www staje się tylko nowym kanałem kontaktu z odbiorcą – patrz nadzieje pokładane przez wydawców w paywallach. Dlatego mobile nie zastąpi, ani tym bardziej nie zabije desktopu. Oba sposoby korzystania ze stron www, poczty, czy social media będą współistnieć i się uzupełniać. 

środa, 26 marca 2014

Kinomaniak.tv? Kto naprawdę gardzi milionami i czeka na miliardy?


Serwis Dziennik Internautów opisując sprawę śledztwa toczącego się wobec założycieli Kinomaniak.tv postawił słuszne pytanie: czy branża internetowo-filmowa gardzi 3,6 mln zł rocznie pozyskanych od internautów? Pozornie odpowiedź wydaje się prosta: Gardzi! A dlaczego? Bo serwis oferował pirackie kopie internautom, którzy nie znajdując filmów w sieci w legalnych produktach płacili tutaj od 2,46 zł za dostęp jednodniowy, do 369 zł za dostęp "dożywotni". Żaden duży podmiot nie spróbował przejąć Kinomaniaka.tv (przynajmniej nic o tym nie wiadomo oficjalnie) i zbudować na jego bazie ofertę legalną, zgodną z prawem z przystępną ofertą cenową.

Nie każdy jest ekonomistą i nie wszystkich interesują ekonomiczne podstawy działania serwisu. Stąd częste głosy krytyki pod adresem przeciwników Kinomaniaka, czyli obrońców praw autorskich. Krytyka pod hasłem „są jak pies ogrodnika, sami nie zjedzą i innym nie dadzą“. Obrońcy stanowiska właścicieli praw autorskich mają jednak wiele racji twierdząc, że łamanie prawa nie jest dobrą metodą na tworzenie nowych modeli biznesowych. To prawa, że Netflix czy Hulu mocno zatrzęsły filmowym rynkiem pozwalając oglądać filmy za kwoty dużo niższe niż cena biletu do kina, ale amerykański rynek jest diametralnie odmienny od naszego. Siła nabywcza polskich internautów jest niewspółmiernie niższa, a kupno praw do emisji to duża inwestycja dla każdego z podmiotów nie obracającego filmami w innych kanałach. Nikogo nie dziwi internetowa rynkowa oferta Ipli (Redifine), czyli grupa Polsatu, TVN Player, czy VOD.pl oferowanego przez Onet oraz zacieśniające się związki Agory (udziałowiec) ze Stopklatką.tv. A z drugiej strony liczne naśladownictwa modelu pirackiego Kinomaniaka.tv. Kilka rzeczy na pewno jest jednak wspólnych:

1.     O popularności serwisu, a zarazem jego sukcesie decyduje wielkość i różnorodność biblioteki filmów. Nie jest to jedyny warunek, ale konieczny. Bogata oferta to więcej niż połowa sukcesu. Prawo do dystrybucji internetowej filmów trzeba kupić od dystrybutorów filmów. A to może słono kosztować.
2.     Poza technologią udostępniania liczy się łatwość obsługi strony, wyświetlanie w różnych przeglądarkach czy platformach.
3.      Cena? Za obejrzenie jednego filmu w popularnych seriwsach VOD (dostępnych np. w sieciach kablowych) trzeba zaplacić od 5 do nawet 20 zł. I tak jest to dużo taniej niż bilet do kina dla 1 osoby, a przecież emisję filmu z VOD czy w internecie może oglądać więcej osób.

Wracając do wątpliwości di.com.pl. Dlaczego nie znalazła się firma, która chciałaby zagospodarować użytkowników Kinomaniaka.tv? Propozycja dla internautów skłonnych płacić za oglądanie filmów; większość z nas chciałaby przecież robić to legalnie. Czy „zalegalizowanie“ Kinomaniaka.tv znacząco zmieniłoby ceny? Nie sądzę.

Nie docenianym przez komentujących powodem braku takich odważnych decyzji jest czynnik ludzki. Chodzi o nieszablonowe, niestandardowe podejście do biznesu, do modeli rozliczeniowych. Takiego podejścia brakuje często u członkowie zarządów firm po których spodziewalibyśmy się takiego produktu jak Kinomaniak.tv. Są przyzwyczajeni do spokoju, do liniowego wzrostu, a zatem braku ryzyka, „czystych“ wyników finansowych szczególnie ważnych dla inwestorów giełdowych. Branża filmowa, czy duże podmioty internetowe nie gardzą dużymi pieniędzymi, zarabiają na filmach na wiele sposobów: kino, tv kodowana, seriale, DVD, gadżety, komiksy i coraz częściej oferta online.

Zaskakującą puentą tej historii jest informacja, że zamknięty serwis założył oraz kierował nim były oficer olsztyńskiego oddziału CBŚ. Jak słusznie zauważył Presserwis, cyt. …był policjant na emeryturze. 
Policjanci są jednak w stanie dłużej pracować. I to twórczo”.

Były oficer CBŚ dobrym kandydatem do zarządu? Tylko jakiej firmy :)

poniedziałek, 10 marca 2014

Powstanie internet "dozwolony" dla osób po 35. roku życia

Wielu fachowców od internetu utożsamia go często z grupą docelową mieszczącą się w grupie wiekowej 15 – 35 lat, czyli użytkownikami dla których cyfrowa rzeczywistość była „od zawsze“. Oni nie pamiętają świata gazet codziennych, nigdy ich nie potrzebowali używać, szukać ich informacji, próbować dzięki nim zrozumieć świat. Od biedy kojarzą tygodniki, a cyfrowym bogiem jest dla nich wujek Google, social media - najpierw MySpace, potem Facebook, a teraz Snaptchat. Kilka lat temu używano nawet określenia „pokolenie Neostrady“ (cóż to właściwie jest?). Tylko, że użytkownicy cyfrowej sieci w Polsce są coraz starsi.

Wiadomo, że cyfrowe wykluczenie starszych osób istnieje i istnieć będzie. Jest sporo osób, które już nigdy nie staną się internautami i nie pomogą najlepsze programy zapobiegające takiemu wykluczeniu. Ale jednocześnie widać mocny trend – cyfrową rzeczywistość obłaskawiają szybko dzisiejsze 40-, i 50-latki. W ostatnim numerze miesięcznika „Press“ zwróciłem uwagę na małą rubrykę ze 112 str. Polskie Badanie Internetu na zlecenie branżowego miesięcznika pokazały m.in. profil internautów. Najbardziej zaciekawiły mnie kategorie wiekowe. W ciągu 11 miesięcy we wszystkich kategoriach wiekowych obejmujących internautów w wieku ponad 35 lat przybyło niemal 1 mln 300 tys. użytkowników, tymczasem w zsumowanej grupie 15 – 34 lata tylko 473 tys.

W niedawno opublikowanym badaniu Izby Wydawców Prasy „Diagnoza społecznych zachowań czytelniczych w obrębie prasy drukowanej i cyfrowej. Nowe platformydostępu do treści. Transformacja prasy” widać jakie tak silny przyrost użytkowników sieci w tych kategoriach wiekowych może mieć konsekwencje. Przynajmniej w najbliższych kilku latach. Autorzy badania, by obalić zarzuty o jego niereprezentatywność (choćby z racji tożsamości zleceniodawcy, czyli IWP zrzeszającej tradycyjnych wydawców) przeprowadzili wywiady na żywo z ponad 1000 osobami. Uwzględniono inne przyzwyczajenie i tradycje z korzystania mediów poprzez 250-osobową, nadreprezentatywną grupę respondentów tzw. czytelników prasy cyfrowej.



Badanie przyniosło ważną odpowiedź na pytanie: jaka czeka przyszłość printową prasę. Oddzielnie szukano odpowiedzi dla gazet, tygodników i magazynów. Wielu respondentów w odpowiedzi na pytanie czy prasa zniknie wskazywało na to, że nie zniknie, albo, że zastąpiona zostanie przez prasę w wersji cyfrowej. Niby nic w tym dziwnego gdy pyta się o to ludzi pamiętających świat sprzed epoki internetu, ale zaskakuje gdy są to opinie internautów przypisujących prasie papierowej istotnie wyższe wartości (jakość, opiniotwórczość, specjalizacja) niż typowym portalom internetowym. Co ważne niemal wszyscy respondenci dostrzegają różnicę - serwisy internetowe gazet doceniają (choć nie aż tak jak printową prasę) a typowym portalom internetowym przypisując niższą jakość.

By nie powtarzać listy błędów jakie popełnili wydawcy kilkanaście lat temu (główna – przekonanie, że treści trzeba przełożyć do internetu i publikować za darmo) warto analizować ogólnoświatową sieć www pamiętając o tym, że pozostaje kanałem dotarcia. Cywilizowanie relacji w sieci między producentem i nadawcą treści a odbiorcą (wprowadzanie płatności za dostęp do niej) odbywa się na żywym organizmie.



Wielu wydawców prasy dostało poważny argument do ręki, że czytelnik albo już jest, albo będzie w sieci, ale jednocześnie oczekuje ich produktów, przypisuje im opiniotwórczą rolę i uznaje za potrzebne. To argument za tym, by prasę w sieci kierować przede wszystkim do znających markę i posiadających doświadczenie z korzystania z tradycyjnej prasy. A zatem budować internet dozwolony dla internautów od 35 roku życia. Dla młodszych pozostaje to co bezpłatne? Czy także gorszej jakości? Wystarczy prześledzić jakie cechy przypisywali badani prasie, a jakie serwisom internetowym (patrz screen), by wyciągnąć ciekawe wnioski,

Na koniec wróćmy do zestawienia PBI z Press. Prawie 1 mln. 170 tys. przybyło internautów deklarujących miejsce zamieszkania - wieś. Pamiętając o problemach z prasą drukowaną warto zauważyć gdzie tkwi największy potencjał rozwojowy polskiego internetu prawie w połowie tego dziesięciolecia. No jeszcze urządzenia (smartfony, tablety), ale to bajka na oddzielny wpis.

* Badanie Izby Wydawców Prasy „Diagnoza społecznych zachowań czytelniczych w obrębie prasy drukowanej i cyfrowej. Nowe platformydostępu do treści. Transformacja prasy”

sobota, 8 lutego 2014

Słonie, hieny, pasożyty. O kolejności „karmienia” w internecie

UWAGA. Poniższy tekst ukazał się prawie 5 lat temu - 3.03.2009 r. w serwisie Wiadomości24.pl  w czasach gdy byłem redaktorem naczelnym tego, największego w polskiej sieci, portalu dziennikarstwa obywatelskiego. Z racji aktualności wielu wątków i toczącej się dyskusji o ścianie paywalla w Agorze, zdecydowałem się go umieścić na blogu.

***

Pewnego dnia zamilkną serwisy internetowe prowadzone przez wydawnictwa medialne, a do kiosków nie dotrą gazety. Nie będzie niczego - mawiał pewien kandydat na prezydenta Białegostoku, który „zrobił karierę w sieci”. Tak, nie będzie niczego wartościowego, a portale i agregatory treści niemal całkowicie zamilkną. Niemożliwe? Możliwe, w USA już do tego się szykują...

Jak napisał Marek Miller amerykańscy wydawcy prasowi rzucają rękawicę internetowi. Wystosowano petycję, by przez 7 dni gazety nie publikowały żadnej treści w internecie. Celem jest próba obserwacji jak będą funkcjonowały portale agregujące treści gazet. TJ Sullivan, popularny niezależny dziennikarz, proponuje gazetom walkę z kradzieżą treści dziennikarskich w internecie. Sugeruje, by gazety, w okolicy amerykańskiego święta niepodległości, na tydzień zawiesiły działalność internetową - czytamy we wpisie na blogu Millera.

- Bardzo trudno będzie odzwyczaić czytelnika od darmowej treści w internecie - podkreśla dalej autor, a w konkluzji dodaje: - (...)gdzieś zatarła się różnica między prawdziwym, gazetowym dziennikarstwem, a tekstem kopiowanym przez portale takie jak Onet.pl czy Wp.pl. Często słyszę o ciekawym tekście przeczytanym na którymś z tych portali, a mało kto ma świadomość, że jego źródłem jest któraś z polskich gazet.

Pasożyty, słonie i hieny

W materiale Pasożyty żerują na serwisach i nieświadomych internautach podkreślałem negatywną rolę jaką odrywają te agregatory treści, które łamią prawo autorskie (wymieniałem Wykop, Sforę, Wyczajto). Są one jednak mniej groźne od internetowych hien. Jak hieny zachowują się zwykle portale, które do gołej skóry potrafią ogołocić innych z treści nie dając w zamian ani pieniędzy, ani ruchu - czytaj zwyczajowego linku do źródła. Wykorzystują dominującą pozycję zbudowaną przez ostatnich kilkanaście lat, gdy medialne słonie (czytaj wydawnictwa medialne :) poruszały się w sieci niezwykle ociężale. Portale nie linkują, zwykle nie płacą za obszernie cytowane newsy z serwisów gazetowych. Ten obyczaj sprawił, że możemy dziś wyróżnić trzy grupy podmiotów newsowych w internecie: słonie - czyli wydalające z siebie treść na masową skalę wydawnictwa i ich strony internetowe, hieny - portale, które przełkną wszystko i pasożyty - agregatory.

Internet mimo popularności blogów, dziennikarstwa obywatelskiego, czy w ogóle idei Web 2.0, nie wytwarza tyle treści, by być całkowicie samowystarczalny. I niech nie zmyli nikogo istnienie redakcji w portalach. Proszę usunąć każdego poranka ze stron informacyjnych Onetu, WP, czy Interii wszystko co jest „zlizywaniem” treści po gazetach (w tym doniesienia PAP!), a będzie widać skalę zjawiska. Jeśli już sieć coś wytwarza to gigantyczną ilość śmieci. Wystarczy porównać liczbę blogasków z naprawdę wartościowymi blogami. - A gdy (...) papierowe czasopisma znikną, zostanie sam śmieć. Ludzie z portali przyuczeni do byle-co-byle-szybko-byle-skąd-byle-nius nagle nie zaczną kreatywnie szukać tematów i pisać przemyślanych artykułów – komentuje Marcin Kasperski pod wpisem Hazana na blogu www.antyweb.pl dotyczącym owej „wojny gazety z internetem”.

Tylko, że to nie jest wojna gazet z internetem, a po prostu potyczka o pieniądze, ale i jednocześnie kształtowanie się nowego ładu informacyjnego. Wszyscy już wiedzą, że wydawnictwa medialne działające w Polsce (może poza Agorą) nie doceniły kilka lat temu internetu, jako miejsca gdzie można zarabiać. Zaczyna się kolejna odsłona bezpardonowej walki o szmal i - owe medialne, nieruchawe słonie, jak bywają nazywane wydawnictwa - zdecydowane są użyć każdej legalnej broni, by walczyć o swoje. Spada sprzedaż gazet, maleją wpływy z reklamy i do sieci ucieka czytelnik papieru - to jasne, że poważniej traktują rwący strumyk pieniędzy z reklamy w internecie. I chcą go porządkować...

Nieruchawe "medialne słonie"?

- Ochrona prawa autorskiego wydawców w internecie ma dwa oblicza: – pierwsze odnosi się do korzystania i oferowania cudzych treści bez uprawnienia, co jest nielegalne w myśl obowiązujących przepisów, – drugie dotyczy korzystania z treści w ramach dozwolonego użytku - wyjaśnia Maciej Hofman, dyrektor generalny Izby Wydawców Prasy, skupiającej największe podmioty w tej branży. - Oba problemy wymagają odpowiednich regulacji prawnych tak, by nie ograniczać „wolności słowa” z jednej strony, ale z drugiej zapewnić twórcom i producentom należytą rekompensatę.

- W zakresie korzystanie z cudzych treści bez uprawnienia, wydawcy będą musieli wprowadzić czytelne zasady korzystania z materiałów prasowych obowiązujące w środowisku cyfrowym i ścigać tych, którzy te zasady naruszyli. Takie działania podjęła już „Gazeta Prawna” i „Rzeczpospolita” - kontynuuje Hofman. - Jeśli chodzi o dozwolony użytek to będzie to wymagało podobnego podejścia jak w przypadku reprografii. Tu należy przewidywać obciążenie opłatami urządzeń kopiujących i środków umożliwiających kopiowanie, ale też urządzeń umożliwiających dostęp do internetu i opłat za korzystanie z tego dostępu. Rozwiązanie formalne i faktyczne tych problemów będzie podstawą do budowy modelu biznesowego gwarantującego rozwój wydawnictw prasowych - podkreśla dyrektor generalny IWP.

Od 23 lutego wiadomo, że szykuje się duży proces o naruszanie praw autorskich w sieci. Tego dnia Presserwiss doniósł: - Infor Biznes wysłał do sądu pierwszy pozew w sprawie naruszenia przez serwisy internetowe praw autorskich do tekstów pochodzących z "Gazety Prawnej" i portalu Forsal.pl. Wydawca jako pierwszą pozwał Polską Federację Rynku Nieruchomości, bo jego zdaniem bez zgody spółki Infor Biznes zamieszcza ona w swoim serwisie internetowym materiały przygotowane przez dziennikarzy ”Gazety Prawnej” i Forsal.pl. Wydawca zapowiada, że podobnych pozwów może być ponad 70. Listę podmiotów podejrzanych o naruszenie praw autorskich przygotował we współpracy z firmą Plagiat.pl.

Infor szacuje straty na milion złotych i od jednej tylko z firm zażąda prawie 100 tys. zł. Czy proces i ewentualny wyrok odstraszy innych? Wątpię bo dla niektórych portali, serwisów, wortali treść wykorzystywania bez zgody właściciela (cóż za eufemizm na określenie kradzieży!) jest podstawą istnienia i zarobków, modelem biznesowym.

A może jednak pobierać opłaty za dostęp do treści?

Czy w polskim internecie można poważnie myśleć o pobieraniu opłat za dostęp do treści? Warto prześledzić tok myślenia jaki prezentuje prof. Jan Błeszczyński, specjalista od prawa autorskiego i prawa własności intelektualnej. W wywiadzie udzielonym "Gazecie Prawnej" mówił m.in.: - Internet otwiera ogromne możliwości korzystania z twórczości, w którym nie zawsze możliwe jest uchwycenie faktu konkretnego korzystania z utworu. Profesor dywagując o próbach ucywilizowania sieci podkreśla, że z (...) punktu widzenia prawa autorskiego sprawa przedstawia się prosto - ustawa powiada, że twórca korzysta z wyłącznej ochrony w zakresie rozporządzania utworem, z wyjątkiem sytuacji wymienionych w ustawie, w szczególności użytku osobistego. Jeżeli do wymiany dochodzi pomiędzy osobami pozostającymi w osobistym związku (np. rodzinnym lub towarzyskim), jest to dozwolone. Jeżeli natomiast wymiana jest realizowana w ramach zorganizowanej akcji, z punktu widzenia prawa autorskiego nie widzę istotnej różnicy pomiędzy taką wymianą a np. najmem lub użyczeniem egzemplarza utworu.

Krąg rodzinny i towarzyski jest częstym argumentem niektórych serwisów. Twórcy JoeMonster tak powołują się w rubryce „Prawa autorskie” na licencję GNU oraz „krąg znajomych”: Większość tekstów, obrazków oraz innych plików multimedialnych wykorzystywany w serwisie pochodzi z przepastnych czeluści ogólnoświatowej sieci Internet i stanowi dziedzictwo oraz dorobek tysięcy bardzo często bezimiennych osób, które napisały/narysowały/zrobiły zdjęcie/fotomontaż/prezentacje czy też inne rzeczy po to by zainteresować czy rozbawić swoich znajomych. My pokazujemy je naszym znajomym, czyli Wam. Kontynuujemy tym samym łańcuszek dobrej woli pozostawiając oryginalnym autorom ich prawa autorskie, a w przypadkach kiedy ich znamy umieszczamy zawsze odpowiednią adnotację i staramy się otrzymać zgodę na publikację.

Agregatory, czyli np. serwisy będące zbiorem linków są grupą osób pozostającą w związku towarzyskim? Rodzinnym? JoeMonster - łańcuszek ludzi dobrej woli? Prof. Błeszczyński nie docenia chyba internautów, pokolenia przyzwyczajonego do tego, że z sieci wszystko można pobrać za darmo: filmy, muzykę. Dlaczego mają nie korzystać za darmo z informacji przygotowanych przez inne serwisy?

Uczciwa konkurencja biznesowa?

Cywilizowanie obrotu treściami wydaje się nieuchronne. I to nie tylko za sprawą działań podmiotów przenoszących działalność z papieru do internetu. Dziennikarze obywatelscy działający w serwisie Wiadomości24.pl są tak samo okradani tak jak zawodowcy Ciekaw jestem ilu blogerów zakrzyknie: Łapać złodzieja! Który portal zapłacił (choćby linkiem) za to co zacytował? Polskie prawo, a właściwie instytucje naszego państwa nie potrafią sobie poradzić z prostą sprawą: Krystian Jamróz autor zdjęć z Wiadomości24.pl, które bezprawnie wykorzystano na komercyjnej stronie internetowej bezskutecznie stara się od kilku miesięcy dochodzić swych praw. Policja i prokuratura umorzyły postępowanie w jego sprawie...

Warto pamiętać, że upadek medialnych koncernów oznacza kiepskiej jakości dziennikarstwo. Już dziś nie wszystko co z medialnych gigantów wypływa do sieci jest wartościowe. Pamiętajmy też, że nie można ograniczać konkurencji w sieci. Na blogu Millera komentujący „macieklew” napisał: - Skoro ludzie chętniej odwiedzają portale, to jest to wyzwanie dla prasy. Konkurencja - tak to się nazywa, w kapitalizmie :) Jesteś lepszy, to kupują od ciebie - proste. Nie walczyć z konkurencją, tylko być lepszym od niej - oto rozwiązanie.

Uczciwa rywalizacja jest możliwa tylko gdy gracze trzymają się zasad. Dlaczego hieny, czyli portale tak chętnie cytują w całości newsy z innych serwisów informacyjnych (nie tylko należących do medialnych słoni), a nie dają linków? Może gdy rozjuszone słonie ruszą atakując całym stadem się przestraszą?

Uważam, że zarówno w interesie „medialnych słoni”, jak i hien oraz pasożytów jest stworzenie kodeksu dobrych praktyk w internecie oraz wyrzucenie poza nawias złodziei. Pierwszą zasadę już sformułowaliśmy Po pierwsze nie kradnij. Druga może brzmieć: Zawsze linkuj do źródła informacji. Dopóki wszystkie podmioty tworzące wiarygodną treść, czyli zatrudniające dziennikarzy serwisy i portale nie będą wobec siebie uczciwe, o ochronie praw autorskich nie ma mowy.

***
Pasożyt - organizm cudzożywny, który wykorzystuje stale lub okresowo organizm żywiciela jako źródło pożywienia i środowisko życia; może doprowadzić organizm żywiciela do wyniszczenia a nawet śmierci.

Hiena - potrafi wyczuć pożywienie z odległości wielu kilometrów. Zjada wszystko co się da strawić. Ma bardzo silne szczęki zdolne skruszyć kość słonia.

Słoń – jest roślinożerny; nieliczne zęby jakie posiada wykorzystuje są do rozdrabniania pożywienia, jeżeli straci wszystkie zęby na raz, nie może jeść i ginie z głodu. Słoń szarżuje z prędkością 30 km/h, rozszalałe stado potrafi stratować na swojej drodze wszystko... 

Źródło Wikipedia

czwartek, 16 stycznia 2014

Orwell pomylił się o 30 lat. Kilka słów o prywatności w sieci


George Orwell w słynnej powieści „1984“ opisał życie jednostki kontrolowane i podporządkowane wszechpotężnej władzy państwa. Informacje dotyczące zakupów dokonywanych przez Google (zakup firmy NestLabs z zarejestrowanymi ponad 100 patentami zajmującej się nowoczesnymi termostatami, a faktycznie grupę osób, które współtworzyły w Apple słynnego iPoda), czy pojawienie się aplikacji NameTag firmy FacialNetwork pokazują, że  rzeczywistość dogoniła przewidywania w powieści Orwella. Autor powieści pomylił się „tylko“ o około 30 lat.

Wydaje ci się, że starannie chronisz swoje dane osobowe na Facebooku, że profil jest prywatny? Albo, że Twój adres e-mail jest Twoją własnością? Facebook nie pozwala zmienić głównego adresu e-mail, ani numeru telefonu używanego do logowania się w swoim serwisie gdy chcemy korzystać z usługi wysyłania kodu dostępu na numer telefonu. Albo gdy masz tylko adres G-mail znajomego a nie wiesz czy ma konto na FB skorzystaj ze strony pozwalającej zresetować hasło - jesteś w stanie odnaleźć jego profil na Facebooku.

Z kolei dzięki najnowszej aplikacji NameTag można zrobić zdjęcie dowolnej osobie na ulicy, a program sam odszuka na podstawie twarzy jej profile w serwisach społecznościowych i pokaże wszystkie „ślady“ jakie ta osoba zostawiła w cyfrowym świecie. Łatwiej Ci będzie zacząć rozmowę bo zobaczsz nawet linki do profili danej osoby w serwisach randkowych. W USA aplikacja sprawdza nawet rejestr skazanych za przestępstwa seksualne. 

W powieści „1984“ wszechobecne teleekrany pełniły funkcję kamer szpiegowskich, wymuszających bezwzględne posłuszeństwo na ludziach. Najdrobniejsze wykroczenie poza normę (np. niezadowolony wyraz twarzy) jest natychmiast wykrywane i kończy się ewaporacją, czyli nie tylko śmiercią fizyczną, ale i całkowitym wymazaniem z historii. Osoba, która została ewaporowana, oficjalnie nigdy nie istniała. 

W ciągu ostatnich 10 – 20 lat nie tylko internetowym korporacjom udało się przekonać  społeczeństwo, że cyfrowa rzeczywistość jest fajna i lepsza niż ta w której żyjemy. Uwierzyliśmy. Zapatrzeni w możliwości technologii, zachwyceni urokiem serwisów social media. I nie tylko ich. Systematycznie oddajemy coraz więcej prywatności w cudze ręce. Bezkrytycznie wypełniamy formularze danych Googla, czy Facebooka. Wrzucamy zdjęcia (pozowane, fotoszopowane, selfie z dziubkiem) i filmy do sieci, tagujemy je, decydujemy się na umieszczanie w świecie digital wielkiej cześci swego życia prywatnego i zawodowego. 

Z ręką na sercu ilu z nas czyta bardzo szczegółowe i długie regulaminy, który serwuje nam serwis obsługujący jedną szóstą część ludzkości - Facebook? Albo Google? Po raz pierwszy po wielu miesiącach zajrzałem do ustawień swego profilu w Google. Ile tam nowych pól, dziwnych powiązań z dziesiątkami usług Google! Nie słychać też o masowych protestach internautów przeciwko najnowszej możliwości wysyłania maili jakie oferuje Gmail dzięki koncie w Google+. Od teraz możesz dostać maila od osób, które są w Twoim kręgu znajomych. Nie muszą znać Twego maila. 

Ponoć to wszystko w naszym dobrze pojętym interesie. Także w imię naszego bezpieczeństwa Microsoft udostępni dane użytkowników Skype’a rosyjskim służbom specjalnym. Koncern będzie przechowywał przez 6 miesięcy nagrania rozmów, pliki i dane. Nie robi już na nikim wrażenia wieść, że amerykańska Agencja Bezpieczeństwa Narodowego (NSA) posiada technologię, która umożliwia połączenie się z komputerami drogą radiową. NSA jest teraz w stanie włamać się do komputera, który nie jest podłączony do internetu.

W relacjach z państwem i z cyfrowymi korporacjami mamy coraz mniej prywatności. Na własne życzenie. Standardy i umowy nie są przestrzegane, a prawa obywateli ustępują interesom rządów. W „1984“ Orwella istniały 3 mocarstwa (Eurazja – zdominowana przez ZSRR, Oceania – zdominowana przez USA, Wschódazja – pod wodzą Chin), które nieustannie prowadzą wojny. Dwa mocarstwa nawiązywały sojusz i atakowały trzecie. Następnie sojusz został zrwany, jeden z sojuszników przechodził na stronę wroga i wspólnie z nim atakował osamotnione państwo. Wojna trwała cały czas, ponieważ żadnemu z przywódców nie zależało na zakończeniu. Dzięki temu rządzącym łatwiej jest wymóc posłuszeństwo...

Czytaj też w serwisie Panoptykon.org co w zakresie prywatności internautów w sieci wydarzyło się w 2013 roku