Data scientist może wpływać na decyzje konsumenta. Ale zarządzanie jego oczekiwaniami zostawiłbym marketingowcom

Data scientist może wpływać na decyzje konsumenta. Ale zarządzanie jego oczekiwaniami zostawiłbym marketingowcom

– Proces real-time decisioning polega na zbudowaniu modelu opartego na pętli decyzyjnej. Ważna jest segmentacja, czyli podział klientów na kilka segmentów, aby można było spersonalizować obsługę. Do tego potrzebne są badania reprezentatywne, więc używamy zaawansowanych technik z zakresu analizy wielowymiarowej i uczenia maszynowego nienadzorowanego – o kulisach pracy analityka w branży badań marketingowych mówi Radosław Puakowski, wykładowca kierunku Data Science w Collegium da Vinci w Poznaniu.

Radosław Puakowski jest absolwentem ekonometrii ze statystyką na Uniwersytecie Gdańskim. Od dwudziestu lat pracuje jako analityk danych w agencjach badań marketingowych i konsumenckich. Wykłada również na kierunku Data Science w Collegium da Vinci w Poznaniu. Doświadczony menedżer zespołu przetwarzania danych – na koncie ma setki zrealizowanych projektów. Zainteresowania zawodowe koncentruje na analityce i programowaniu ze szczególnym uwzględnieniem zastosowań analizy conjoint. W zarządzaniu zespołem wykorzystuje techniki scrum i kanban.

Nie od dzisiaj wiemy, że firmy stosują coraz bardziej zaawansowane narzędzia analityczne do zrozumienia potrzeb, ale też lepszego poznania swoich klientów. Czy dzięki data science możemy zajrzeć do umysłów naszych klientów?

Całe swoje zawodowe życie poświęciłem badaniom konsumenckim. Kiedy zaczynałem pracę 20 lat temu, to było jeszcze tzw. badanie rynku i opinii publicznej. W agencji badawczej, w której pracowałem, mieliśmy dział realizacji takich badań. Co ciekawe, do dyspozycji były w zasadzie dwie metody. Pierwsza to face-to-face, zwaną też metodą PAPI (ang. Paper and Pencil Interview). Polegała ona na tym, że ankieter szedł do konsumenta albo do niego dzwonił z call center. I to właściwie było wszystko, co można było w tym momencie zrobić. Drugą opcją były ankiety pocztowe albo samospisy, ale te rozwiązania wykorzystywano w mniejszym stopniu.

Natomiast teraz mamy prawdziwą rewolucję, która nie miałaby miejsca, gdyby nie rozwój internetu i wszystkich metod zbierania danych z nim związanych. Bardzo popularną metodą dziś jest CAPI (ang. Computer-Assisted Personal Interviewing). Przy czym najczęściej wykorzystywane są urządzenia mobilne – za pomocą telefonu lub tabletu respondent sam wypełnia formularz, ewentualnie odpowiada bezpośrednio w przeglądarce internetowej.

Co przyniosła taka zmiana?

Dla badań marketingowych – ogromne możliwości. Kiedyś forma kwestionariusza musiała być z góry ustalona, jak również cała struktura i wszystkie pytania. Właściwie rolę algorytmu pełnił ankieter. To on był odpowiedzialny za to, kiedy i które pytania zada, a które są mniej skuteczne czy potrzebne. W tym momencie możemy to wszystko zaprogramować.

A w jakim kierunku idą badania marketingowe? Czy możemy już mówić o etapie przyspieszenia procesu decyzyjnego?

Zdecydowanie tak. Proces data collection, który kiedyś był wyraźnie podzielony na zbieranie, kodowanie, a potem analizę danych, teraz został skompresowany. Kiedyś analityk musiał dokonać ekstrakcji danych, później ich transformacji, obliczeń i tabularyzacji wyników. W tej chwili właściwie wszystko może się odbywać w ramach jednego rozwiązania. System zbiera informacje, a pętla decyzyjna ulega skróceniu.

Z mojej perspektywy coraz więcej czasu i uwagi firmy poświęcają dzisiaj procesom, które umownie nazywamy tzw. blackboxem. Oznacza to, że tworzymy przysłowiową skrzynkę, do której wpadają dane. Zbieramy je na różne sposoby i mamy dane wsadowe, albo inaczej wejściowe. I naszym zadaniem jest, aby tego tę czarną skrzynkę urządzić przy pomocy narzędzi, które znamy – czy to będą pakiety statystyczne, czy obecnie szeroko rozpowszechnione narzędzia, jakimi są języki R lub Python. Te ostatnie zresztą idealnie nadają się do programowania analiz.

Natomiast klasyczna analityka, gdzie specjalista wyciągał dane, a następnie je udostępniał do dalszych analiz, trochę się wyczerpuje. Dziś kluczem jest system, który pozwoli specjalistom data science obsłużyć narzędzie do zbierania danych, zaprogramować bazę i stworzyć narzędzie obliczania. Te informacje trafią bezpośrednio do interesariusza, decydenta czy klienta już w sposób zagregowany. I będzie to miało znaczący wpływ na proces decyzyjny w firmie.

Jakich narzędzi używa się, aby ten proces decyzyjny przyspieszyć?

Jednym z najczęściej wykorzystywanych przeze mnie jest analiza conjoint. Dzięki niej proces zbierania danych, konfiguracji produktu czy analiz cenowych można bardzo skutecznie optymalizować. To też główny obszar moich zainteresowań zawodowych.

Mógłby Pan opisać analizę conjoint od kuchni?

W tym przypadku mierzymy się z dwoma kluczowymi wyzwaniami. Po pierwsze, pozyskiwanie danych w sposób komercyjny, w postaci badań marketingowych, zawsze będzie skuteczne, choć dużo droższe. Mamy do dyspozycji cały wachlarz narzędzi do obserwacji konsumenta czy użytkownika. Z drugiej strony jest skuteczność, którą mierzylibyśmy w sposób rynkowy. Przykładowo jest bardzo dużo analiz cenowych, którymi się zajmowałem, ale najbardziej zaawansowana, którą znam, to właśnie wspomniana analiza conjoint.

Jeśli wypuszczamy nowy produkt na rynek, to chcielibyśmy go skonfigurować, określić niszę i parametry, które powinien spełniać. Musimy też jasno zdefiniować jego cenę i oszacować popyt, na który rzeczywiście możemy liczyć. Konkretnych odpowiedzi na te pytania dostarcza właśnie analiza conjoint, czyli łączny pomiar preferencji.

W zasadzie do naszego celu mamy dwa podejścia. Jedno z nich, bardziej klasyczne, to podejście kompozycyjne. Mając swój zdefiniowany produkt, określamy jakieś cechy i warianty tych cech, które możemy zmierzyć. Choćby za pomocą skali Likerta. Uzyskamy w ten sposób zestaw niezależnych od siebie odpowiedzi. Na ich podstawie możemy modelować preferencje. Niestety nie ma tutaj ujęcia całościowego, w związku z czym później powstało ujęcie odwrotne, zwane dekompozycyjnym.

Zakłada ono, że konfigurujemy i przedstawiamy konsumentowi cały koszyk cech. Powstaje produkt o określonych parametrach, a konsument odpowiada, czy by go kupił, czy też nie. Analiza conjoint pozwala poprzez różnorodne, techniczne parametry modyfikować zakres zastosowań. Przy pomocy aparatu statystycznego, analizy regresji czy analizy bayesowskiej dokonujemy dekompozycji tych wyborów i rozkładamy na poszczególne czynniki.

Czy tego typu analizy pozwalają firmom czytać w myślach klientów?

Mam wrażenie, że to jest bardziej czytanie w zamiarach – pomiar preferencji, odczytywanie intencji i symulacja przyszłej sytuacji zakupowej. Dzięki temu nasz klient może zdefiniować swoją strategię. I odpowiedzieć na pytanie, czego właściwie chce: zająć jakiś pewien segment rynku i optymalizować zysk, a może zdobyć rynek i poszerzyć niszę. Wszystko zależy od celu i strategii firmy, dlatego analizy, takie jak conjoint, nadal są rozwijane. Pojawiają się tu nawet rozwiązania coraz lepiej symulujące decyzje zakupowe, takiej jak np. virtual shelf . Natomiast osoba, która kiedyś te dane wyciągnęła, przekształciła, policzyła i dostarczyła, z analityka danych ”awansowała” na pozycję data scientist.

Jakie umiejętności taki data scientist powinien posiadać?

Z pewnością te w zakresie programowania. Myślę, że stało się ono ważniejsze dla osób pracujących z danymi. Potrzebna jest znajomość już bardziej wyrafinowanych technik analizy wielowymiarowej i uczenia maszynowego. Jeżeli w odpowiedni sposób ustawimy sobie system i wykorzystamy techniki uczenia maszynowego, zbudujemy do tego sieci neuronowe, to stworzymy system, który będzie cały czas zbierał dane i się uczył.

Natomiast dziś korzystamy z tak ogromnej liczby źródeł, gdy chodzi o zarządzanie danymi dotyczącymi zachowań konsumentów...

Tak, to prawda. Poza danymi analizowanymi już wcześniej, wśród kanałów pozyskiwania są media społecznościowe, wyszukiwarki, strony internetowe czy aktywność w aplikacjach mobilnych.To oczywiste, że w takiej sytuacji może pojawić się tzw. szum ze względu na brak pełnej informacji o działaniach konsumenta. Da się go jednak odfiltrować i prawidłowo odczytać. Można korzystać z narzędzi typu data lake. Dzięki nim możemy „wlewać” sobie dowolne dane i łączyć na dowolne sposoby, aby odczytać więcej informacji. Mając do dyspozycji coraz lepsze komputery oraz metody badawcze, a także techniki uczenia maszynowego razem z sieciami neuronowymi, myślę, że będziemy rozwiązywać coraz bardziej złożone problemy.

Czy analiza danych marketingowych różni się w zależności od branży?

Od strony technicznej i w zakresie obszaru, jakim się zajmujemy, nie ma to znaczenia. Różnica może jednak wynikać z podejścia. Często słyszałem w swojej pracy, że analityk to osoba, która pracuje z danymi. I ja się z tym nie do końca zgadzam.

Analityk to osoba, która pracuje z osobami, które potrzebują danych. I skoro mam klientów z różnych branż, to staram się skoncentrować i zrozumieć ich potrzeby. Możemy mieć wiele ciekawych projektów badawczych z zakresu data science czy uczenia maszynowego, ale one muszą do czegoś prowadzić. Jeżeli źle określimy cel biznesowy, nie zrozumiemy klienta lub jego branży do końca, to wykonamy swoją pracę na darmo.

Ale mimo wszystko trudno być człowiekiem orkiestrą.

Zgadzam się. Właśnie dlatego tworzymy zespoły, gdzie pracują różnorodni specjaliści z wielu dziedzin – czy to będą analitycy danych, czy analitycy biznesowi, specjaliści data science lub inżynierowie danych. Tylko tak jesteśmy w stanie przełożyć wartość techniczną na wartość biznesową. I oczywiście zespół musi ze sobą współpracować.

Przez długi czas byłem kierownikiem zespołu przetwarzania danych. Wówczas kluczowe były dla mnie techniki zarządzania danymi takie jak scrum i kanban. Są one dość specyficzne, wymagające bardzo elastycznego podejścia. W scrumie nie mamy właściwie już do czynienia z kierownikiem zespołu, lecz mamy scrum mastera i product ownera. Innymi słowy, inaczej rozkładają się role osób odpowiedzialnych za produkty.

Praca z różnymi klientami i problemami wymagała dużo elastyczności i scrum mi w tym pomógł. Pozwala osiągnąć taki poziom interakcji w zespole, aby móc szybko reagować na zmieniającą się rzeczywistość.

Jak wiele jest dziś data science w analizie danych marketingowych? Standard czy nadal innowacja?

Przechodzimy bardzo dużą rewolucję. Natomiast nie powiedziałbym, że wszyscy analitycy danych zajmujący się analizami marketingowymi korzystają z zaawansowanych metod, zespołów czy specjalistów.

Kiedy 20 lat temu zaczynałem pracę, to stanowisko, na które aplikowałem, nazywało się specjalista ds. analiz statystycznych. Mając za sobą tak dużo różnych ścieżek, poszedłem w stronę data science. Czyli specjalisty, który już posiada znajomość zagadnień z zakresu uczenia maszynowego, sieci neuronowych i sztucznej inteligencji, a w dodatku potrafi te procesy wspomagać.

Czy uważa Pan, że data science pozwoli zbudować trwały i bezpieczny most pomiędzy oczekiwaniami klienta a koniecznością maksymalizacji zysków ze strony firm?

Data science jest przede wszystkim nauką, która pozwala wygenerować pewną wartość. Na tej wartości można budować wspomniane połączenie. Jednak zarządzanie tym procesem zostawiłbym specjalistom od marketingu i sprzedaży, a nie data science.

Data science może natomiast dostarczyć amunicji do działu marketingu czy sprzedaży. Możemy zbudować systemy, które będą zbierały informacje, przetwarzały, a następnie przekładały na rekomendacje czy decyzje dla biznesu.

Biznes ma zaufanie do tych metod?

Czasem decydenci bardzo mocno oponują przed wprowadzaniem pewnych zmian, szczególnie jeśli dane marketingowe zebrane dzięki data science przeczą ich dotychczasowej polityce. Oczywiście są sytuacje, w których dokonujemy „odkrycia Ameryki” dla klienta i mówi on: „dokładnie tego potrzebowałem”. Częściej jednak musimy szukać porozumienia pomiędzy oczekiwaniami klienta a efektami naszych analiz.

Co istotne, personel agencji badawczych specjalizujących się w prezentacjach i relacjach z klientem zawsze próbuje zrozumieć drugą stronę i jeszcze głębiej przeanalizować problem. Profesjonalna firma staje po stronie klienta, rozumie jego zastrzeżenia i chce je wyjaśnić. To daje o wiele lepsze efekty niż twarde stawianie sprawy.

Dużo się mówi o tzw. real-time decisioning, czyli podejmowaniu decyzji na ścieżce zakupowej klienta w czasie rzeczywistym. Jak data science może pomóc w tym obszarze?

Takie efekty są możliwe i stosowane już dzisiaj. Wszystko polega na zbudowaniu modelu opartego na pętli decyzyjnej. Niezwykle ważną kwestią jest wtedy segmentacja, czyli podział klientów na rynku na kilka segmentów, aby można było spersonalizować obsługę. Do tego potrzebne są badania reprezentatywne, używamy więc zaawansowanych technik z zakresu analizy wielowymiarowej, uczenia maszynowego nienadzorowanego. Dochodzi do tego kwestia analiz skupień hierarchicznych.

Wszystkie te działania są oparte o pytania, czyli wymiary. Zazwyczaj ich liczba zredukowana jest do pięciu. Jeśli prawidłowo przeprowadziliśmy cały proces, to można z wysoką pewnością przypisać klienta do danego segmentu. To tak zwana metoda złotych pytań. Można ją wdrożyć w jakimkolwiek momencie – czy to w call center, algorytmie lub bocie, który będzie działał na stronie.

Jakiś przykład?

Na przykład gdy kupuję hulajnogę, to firmom jest bardzo łatwo proponować mi reklamy z osprzętem czy ubiorem dopasowanym do tej formy aktywności. Jako klient jestem od tego momentu cały czas „rozgrywany”, a mój popyt może być stale stymulowany. Chyba że sobie wyczyszczę ciasteczka w przeglądarce.

Natomiast system analizuje preferencje użytkownika za pomocą 5 pytań. Dzięki temu dowiaduje się, czy jest to klient bardziej tradycyjny w zakupie jakiegoś dobra, czy nie. Następnie pozycjonuje go w jednym z segmentów. W tym momencie możemy już w pełni personalizować ofertę, jak i komunikację. W procesie zakupowym metody real-time decisioning są dosyć proste do wykonania.

Jaka więc przyszłość czeka tę branżę?

Specjaliści nadal będą obecni na rynku, ale nawet dziś może ich brakować. Będą jednak musieli wykazywać się innymi kompetencjami niż dotychczas. Zbieranie i przetwarzanie danych będzie odbywało się w ramach systemu, nad którym pieczę będzie miał data scientist. On również będzie go rozbudowywał. Procesy zbierania informacji i dostarczania wyników będą szybsze, choć coraz bardziej skomplikowane. Mocniej będzie rozwijała się wielokanałowość, czyli zwiększy się liczba miejsc, w których będziemy zostawiać dane. Z drugiej strony, będziemy obserwowani na różne sposoby i stymulowani przez różne marketingowe rozwiązania.

Z kolei modele do analizy będą coraz bardziej wyrafinowane i tworzone za pomocą technik uczenia maszynowego. W analizie marketingowej kluczowe wydają się narzędzia big data, czyli zbierania i przetwarzania dużych zbiorów danych. To pozwoli na wyszczególnienie nowych segmentów i tworzenia strategii marketingowej. Kluczowa będzie w tym obszarze współpraca z interesariuszami, aby spełniać ich zróżnicowane potrzeby informacyjne.

Udostępnij link

https://www.datasciencerobie.pl/data-science-ma-wplyw-na-modele-procesow-decyzyjnych-k/