Portal Finanse Firma Klastry Instytucje Promocja Polityka
Newsy
2015/08/20 10:55:08
„Big Data” – druga medalu

Liczba informacji dostępnych w internecie ciągle rośnie. Dla biznesu główne zagadnienie związane ze zjawiskiem „Big Data” brzmi: jak połapać się w tym gąszczu danych i jak skutecznie z nich korzystać, by służyły rozwojowi firmy i przynosiły zyski?

Pojęcie „Big Data” robi w ostatnich latach olbrzymią karierę. Trudno jednak o definicję, z którą zgodziliby się wszyscy. Ogólnie mówiąc, oznacza ono wielki zbiór danych, potencjalnie wartościowych, ale zbyt różnorodny, by przy użyciu dostępnych metod móc go przeanalizować. Najczęściej odnosi się do danych elektronicznych, których ilość w internecie przyrasta w takim tempie, że tych, które pochodzą z ostatniego roku lub najwyżej dwóch lat, jest więcej niż wszystkich zgromadzonych w poprzednich latach. Dla przykładu w 2002 r. liczba stron internetowych wynosiła ok. 3 mln, w 2013 r. było ich prawie 630 mln. W 1995 r. wysłano 10 mln e-maili, ale już w 2011 r. aż 3,1 bln! Wzrosła także liczba użytkowników portali społecznościowych, których w 2002 r. było 3 mln, a w 2013 r. – 900 mln (na podstawie danych ze strony antyweb.pl). A do tego dochodzą jeszcze dane z wewnętrznych zbiorów zgromadzonych przez firmy czy instytucje badawcze.

Pora na „Data Science”

Korzystając z internetu, co chwilę podejmujemy decyzje o oddaniu części naszej prywatności. To zawsze jest układ (choć rzadko uświadamiany) pomiędzy nami, jako konsumentami, a firmą dostarczającą usługi – np. w zamian za darmowe korzystanie z serwisu społecznościowego oddajemy dane na swój temat. Z perspektywy indywidualnych osób to właśnie problem ochrony prywatności wysuwa się w debacie o „Big Data” na plan pierwszy. Dla pewnej grupy firm, wykorzystujących wiedzę o nas do przygotowywania spersonalizowanych usług (np. Google, Facebook), to także jest ważne zagadnienie – ile informacji, jakich i w jaki sposób można pozyskiwać, i jak je wykorzystywać. Firmy te muszą dbać o swoją wiarygodność w stosunku do klientów. Stąd też wprowadzanie nowych regulaminów korzystania z serwisów, bardziej przejrzystych i dających więcej realnych możliwości decydowania o swojej prywatności, czy budowanie przewagi konkurencyjnej na gwarantowaniu uszanowania prywatności klientów.

Dla większości firm kwestia prywatności w sieci wcale nie jest największym wyzwaniem związanym z „Big Data”. Posługiwanie się danymi do przygotowania spersonalizowanej reklamy produktów, wysyłanie ofert dopasowanych do naszych preferencji w oparciu o wcześniejsze zachowania – to już stosunkowo prosty, podstawowy sposób wykorzystania informacji, zbieranych na co dzień w internecie przez firmy. Prawdziwy problem tkwi w czym innym. Niezależnie od tego, czy i w jakim stopniu wprowadzane w różnych krajach przepisy prawne dotyczące prywatności w internecie ograniczą możliwości zbierania przez firmy pewnych kategorii informacji, i tak możliwych do pozyskania danych (na wszelkie możliwe tematy) wciąż będzie przybywać. Już dzisiaj jest to taka ilość informacji, że nie sposób nad nią zapanować. Tworzą one często zupełnie bezużyteczny, informacyjny szum. Jak wyłuskać z niego to, co jest potrzebne do prowadzenia biznesu? W jaki sposób dokonywać ciągłej selekcji danych? I wreszcie, jakie zmiany w zarządzaniu firmą należy wprowadzić, by efekty analizy nie pozostały na papierze, lecz zostały wykorzystane dla dobra przedsiębiorstwa?

„Żyjemy w pięknym, skomplikowanym świecie – coraz lepiej mierzonym, oznaczanym i zapisywanym na wieczność w cyfrowych bitach. Nasza ludzka egzystencja wylewa się do cyfrowego świata szybciej niż kiedykolwiek. Od globalnych operacji biznesowych poczynając, po proste wyznania miłości – kluczowa część naszego życia jest już obecna w świecie cyfrowym. Dane te to produkt uboczny tego naszego nowego życia. (...) Stają się nową walutą i kluczowym surowcem naturalnym” – możemy przeczytać we wstępie do poradnika skierowanego do przedsiębiorców „The Field Guide to Data Science”, opublikowanego niedawno przez firmę doradczą Booz Allen Hamilton [wszystkie cytaty w tłumaczeniu autora tekstu – przyp. red.]. Autorzy zawarli w książce szereg wskazówek związanych ze zjawiskiem „Big Data”, poczynając od rzeczy podstawowych (modelowych sposobów, jakie można zastosować w biznesowych dylematach), poprzez algorytmy, metody badawcze, aż po rady dotyczące wykorzystywania specjalistycznych instrumentów badawczych i analitycznych w konkretnych sytuacjach. Punktem wyjścia dla tej publikacji jest stwierdzenie, że większość firm nie potrafi w pełni dostrzec i docenić wiedzy, jaką już dzisiaj dają im dostępne dane, a problem ten będzie narastał. Nie da się go zignorować, bowiem firmy, które w przyszłości nie będą umiejętnie wykorzystywać wiedzy zbieranej z pojawiających się ciągle nowych źródeł, skazane są na porażkę.

Odpowiedzią na te wyzwania jest „Data Science” (nauka o wykorzystywaniu danych), którą za niezależną dyscyplinę naukową uznano dopiero w 2001 r. Mówiąc prościej, jest to umiejętność przekształcania dostępnych danych w wiedzę zapewniającą firmie przewagę konkurencyjną.Pomocne mogą być np. odpowiedzi na takie pytania, jak: „Który z moich produktów powinienem mocniej reklamować, żeby zwiększyć zysk?” albo „Zmiana, którego z procesów produkcyjnych pozwoli mi stworzyć lepszy produkt?”.

„Data Science” nie jest oczywiście czymś zupełnie nowym. Przetwarzanie informacji i szukanie w nich odpowiedzi to rzecz znana od dawna. Produktami opartymi na analizie danych są chociażby oglądana od dziesięcioleci w telewizji prognoza pogody, czy stawiana od tysięcy lat diagnoza lekarska. Zmieniła się za to skala (liczba danych, które trzeba przeanalizować) oraz sytuacja – tempo zmian zachodzących w badanej rzeczywistości wymusza na badających stosowanie innych niż dotychczas metod. „Data Science” zakłada przełączanie się pomiędzy rozumowaniem dedukcyjnym (opartym na hipotezach) a indukcyjnym (opartym o modele, wzory). Dzięki tej kombinacji modele rzeczywistości nie są statyczne, lecz są ciągle testowane i dostosowywane.

Stosowanie „Data Science” w praktyce dobrze pokazuje jeden z przykładów opisanych we wspomnianej już książce. Była to analiza sporządzona dla lokalnych władz miasta San Francisco, będąca próbą zaproponowania rozwiązań, które zmniejszyłyby skalę kradzieży samochodów. Badanie przeprowadzono na podstawie danych policji, wzbogaconych o informacje z zewnątrz. Pozwoliło to analitykom zbudować mapę miasta i wskazać na niej trzy miejsca, tzw. „hot spoty”, gdzie kradzieże zdarzały się najczęściej. Dwa z nich były zdeterminowane przez czynniki przestrzenne, np. miejsce otoczone przez parki, w których nie ma ulic, za to łatwo dotrzeć tam pieszo i szybko można uciec. Trzeci „hot spot” uwarunkowany był przez czas – kradzieże zdarzały się tam wyjątkowo często w niektórych godzinach. Określenie prawdopodobieństwa dokonania kradzieży w danych miejscach i czasie pozwoliło władzom miasta na lepsze wykorzystanie patroli policyjnych – były kierowane tam, gdzie lepiej mogły zapobiegać kradzieżom.

Dane czy intuicja?

Wiedza i wynikające z niej rekomendacje działań to jedno, a ich realizacja, to często zupełnie inna sprawa. Odpowiedź na pytanie, jak wygląda to w przypadku największych firm na świecie i na ile wykorzystują one możliwości, jakie stwarza im „Big Data”, była jedną z najważniejszych kwestii poruszonych w publikacji PwC „Gut and Gigabytes”, wydanej w tym roku przez firmę doradczą PwC, a przygotowanej przez The Economist Intelligence Unit. Autorzy przyjrzeli się, jak podejmowane są najważniejsze decyzje w wielkich międzynarodowych firmach. Czy decydującą rolę odgrywają analizy danych, czy też szefowie w kluczowych momentach wierzą przede wszystkim własnej intuicji? Otóż bywa różnie. Zadziwiające jest, jak wielu menedżerów traktuje analizy danych z nieufnością. Chociaż zdecydowana większość deklaruje, że już dostosowała lub niedługo planuje dostosować swój proces decyzyjny do wyzwań związanych ze zjawiskiem „Big Data”, to jednocześnie tylko mniej niż co trzeci menedżer wysokiego szczebla przy podejmowaniu kluczowych decyzji kieruje się przede wszystkim analizą danych. Kolejne prawie dwie trzecie polega głównie na własnej intuicji i doświadczeniu albo na radach współpracowników (zob. infografika).

Infografika

Zapanować nad lawiną

Częstą barierą, utrudniającą firmom skorzystanie z szansy, jaką stwarza „Big Data”, jest odseparowanie działu analitycznego od pozostałych i dostarczanie reszcie firmy fragmentów przefiltrowanych danych – nie zawsze tych najbardziej potrzebnych – w postaci raportów. Tymczasem kluczowa byłaby możliwość dysponowania całą pulą informacji w momencie, gdy to jest potrzebne. Wymaga to jednak wprowadzenia istotnych zmian w zarządzaniu całą firmą, a nie tylko reformy jej działu analizy danych. A już na pewno nie wystarczy przemianowanie Działu Analiz Biznesowych na Zespół Specjalistów ds. Baz Danych (w wersji angielskiej: Business Intelligence Unit i Data Science Team).

Big Data

We wspomnianym już raporcie „The Field Guide to Data Science” rekomenduje się m.in. stworzenie zespołu ludzi, który zajmowałby się tylko tą tematyką. Przy czym niekoniecznie musi to być jeden wyodrębniony dział. Może to być kilka wyspecjalizowanych zespołów, ulokowanych w różnych miejscach przedsiębiorstwa. Ważne, aby proces analizy danych wpisany był w strategię firmy, a jego efekty wykorzystywał zarząd. Często też np. czas i sposób prezentacji wyników trzeba dostosować do panujących w przedsiębiorstwie relacji. Dobrym przykładem może być „case study” firmy informatycznej Cloudera z Kalifornii, opisanej wraporcie PwC. ta planowała akwizycje i szukała na ten cel kapitału na rynku. Po tym, jak zakończył się proces pozyskiwania kapitału, ale zanim jeszcze pieniądze trafiły do kasy firmy, Tom Reilly, dyrektor zarządzający (CEO), zlecił analizę własnej bazy danych konsumenckich. Badanie pokazało, że bezpieczeństwo i ochrona prywatności to dwie główne bariery, które powstrzymują konsumentów od szerszego wykorzystywania produktów firmy. Analiza stała się podstawą raportu, jaki CEO przedstawił radzie nadzorczej. Za zgodą wszystkich kupiono zajmującą się bezpieczeństwem danych firmę Gazzang. Wydając komunikat o tym wydarzeniu, zarząd mógł być pewien, że zostanie on przychylnie przyjęty przez klientów.

Czego firmy najczęściej poszukują w bazach danych? Przede wszystkim informacji, które pozwoliłyby im zoptymalizować wybór kanałów dystrybucji produktów i usług oraz dokonać selekcji produktów i ich cen.Korzystanie z „Big Data” to nie tylko przetwarzanie informacji z puli, którą już mamy, ale wprzęganie do niej elementów interaktywnych. Jednym z najczęściej stosowanych instrumentów jest testowanie A/B, czyli statystyczny test hipotez. Przekładając to na zarządzanie portalami, polega to na tworzeniu alternatywnych wersji stron internetowych i puszczaniu porównywalnych strumieni ruchu na obie, różniące się określonym elementem wersje, po to, by ocenić, która z nich jest lepsza (np. w którym wariancie sprzedaje się więcej produktów). Z raportu PwC wynika, że ok. 15% ważnych ustaleń podejmowanych jest na zasadzie eksperymentowania, w tym często z wykorzystaniem tego typu testów. A współczynnik ten wzrasta w przypadku pozycjonowania marek. Przykłady? Niektóre najważniejsze zmiany usprawniające działanie serwisu Shutterstock (zajmującego się udostępnianiem stockowych zdjęć, ilustracji, plików muzycznych i innych treści podlegających prawu autorskiemu) wprowadzane były właśnie za pomocą testów A/B. Z ich doświadczeń (o których w raporcie opowiada założyciel i szef firmy Jon Oringer) wynika, że często rezultaty takich testów bywały zaskakujące. Rzeczy, co do których zarząd firmy był przekonany, że będą świetnie działały, miały nieoczekiwany, niekorzystny wpływ. Gdyby więc nie stosowano testów, straciłaby sporo pieniędzy. Masowo testy A/B wykorzystuje też Western Union. Na dużych bazach danych sprawdza, jaki wpływ na obroty miałyby np. planowane zmiany kombinacji marży i kursów wymiany walut.

Za mało, za dużo, wątpliwej jakości

Co najbardziej przeszkadza w wykorzystywaniu informacji? Przede wszystkim ich jakość – na ile są prawdziwe, dokładne i wyczerpujące. Często dane, którymi dysponuje , nie spełniają w wystarczającym stopniu właśnie tych wymagań. Szczególnie istotne jest to w krajach rozwijających się lub na młodych rynkach (np. nieruchomości biurowe w Chinach). Poza tym brakuje danych, z którymi można byłoby dokonywać porównań.

Jak poradzić sobie w tego typu sytuacjach? Dla Charlesa Brewera, dyrektora zarządzającego firmy logistycznej DHL na obszarze Afryki Subsaharyjskiej, najważniejszym czynnikiem, który pomógł mu podjąć kluczową dla rozwoju firmy decyzję był... spacer po centrum stolicy Kenii, Nairobi. Naoczna obserwacja, jak wygląda ruch samochodowy, uświadomiła mu, że dla przedstawiciela małej lub średniej firmy z tego miasta (a takie są ich głównymi klientami) dotarcie do punktu odbioru paczek wymagałoby kilkugodzinnej wyprawy, polegającej głównie na staniu w korku. Stąd o rozbudowaniu sieci (obsługujących obszar Afryki Subsaharyjskiej, na którym mieszka 900 mln ludzi) z liczącej wcześniej zaledwie 350 centrów logistycznych do 2500 punktów. DHL zawarł w tym celu szereg umów partnerskich z małymi lokalnymi sklepami.

W krajach rozwiniętych większym problemem niż brak danych jest zwykle ich nadmiar. Menedżerowie, którzy chcą poradzić sobie z tym problemem, muszą przede wszystkim przyswoić sobie zasadę, by silnie skoncentrować się na celu, któremu podporządkowane ma być badanie. Najpierw więc trzeba postawić pytanie, na które pragniemy poznać odpowiedź, a potem dopiero analizować bazy danych. Odwrotna sytuacja – wyciąganie wszelkich możliwych wniosków z posiadanych przez siebie danych – grozi analitycznym paraliżem firmy. To szczególnie istotna rada w obliczu rewolucji, jaka nastąpi, gdy rozpowszechni się „internet rzeczy”.

Kolejną, po ilości danych, barierą jest trudność w ocenie ich wiarygodności. Bardzo często osoby zajmujące się przetwarzaniem i analizą danych na potrzeby podejmowania w firmie ważnych decyzji zmagają się z dylematem. Z jednej strony nie dysponują kompletnymi i wiarygodnymi informacjami (teoretycznie mogłyby zbiór danych uzupełnić, ale rzadko jest na to czas). Przyjmują zatem, że lepsze będzie niedoskonałe rozwiązanie, które można szybko zaprezentować, niż dopracowywanie idealnego, na które zarząd firmy nigdy się nie doczeka. Z drugiej strony – „nie da się wyprodukować analitycznego złota z ołowianych danych”, jak przestrzegają autorzy „The Field Guide to Data Science”. Czy jest zatem dobre wyjście z tej sytuacji? „Twoje dane nie muszą zawsze być idealnie czyste, ani wcale nie muszą należeć do ciebie, żeby można z nich było wyciągnąć wnioski prowadzące do dobrych decyzji. Ważniejszy niż ich pełna poprawność czy format jest odpowiedni do analizy, który pozwala uwzględnić to, że są one inaczej uporządkowane, oraz to, że zawierają luki” – tak komentuje ten dylemat Paul Blase, szef amerykańskiego działu Advisory Data and Analytics w PwC, w publikacji „Gut & Gigabytes”.

Świadomość, że zwykle niemożliwe jest zdobycie idealnie wiarygodnych i uporządkowanych danych nie zwalnia nas od rozważnego traktowaniapojawiających się w sieci informacji. Wszelkie bazy danych mogą być obarczone wadami, które będą wypaczać wyniki przeprowadzonej na ich podstawie analizy. Gdy w październiku 2012 r. we wschodnie wybrzeże Stanów Zjednoczonych uderzył huragan Sandy, w mediach społecznościowych pojawiła się olbrzymia ilość postów. Jednak ich analiza przyniosłaby fałszywy obraz tej katastrofy. Większość postów pochodziła bowiem nie z miejsc, które ucierpiały najbardziej, ale od osób, które dysponowały smartfonami. O takich, jak te „niebezpieczeństwach” warto pamiętać, analizując dane dostępne w sieci. A także o ostatnim zastrzeżeniu – nawet bazy pełne najcenniejszych danych same się nie przeanalizują i nie podejmą decyzji. Przy wszystkich związanych z „Big Data” zmianach rola ludzi w kierowaniu biznesem pozostanie najważniejsza.

Autor:Krzysztof Orłowski 


powrót | do góry | strona główna | kalendarium | regulamin serwisu | pliki cookies | kontakt
Portal jest współfinansowany przez Unię Europejską w ramach środków Europejskiego Funduszu Społecznego.

© 2005-2017 Polska Agencja Rozwoju Przedsiębiorczości