Przykładowy raport Power BI dla istniejącego sklepu internetowego Google Merchandise Store https://shop.merch.google/ Na poszczególnych kartach mamy przegląd ruchu na stronie sklepu, analizę sprzedaży i korzystania ze strony przez użytkowników. Chciałbym zwrócić uwagę na typowe KPI dla e-commerce jak liczba sesji zaangażowanych, średni czas trwania czy % zaangażowania użytkowników. Na drugiej karcie zwróćmy uwagę na zindywidualizowane miary np. średni przychód na aktywnego użytkownika lub sprzedaż krocząco za ostatnie 14-dni. Na ostatniej karcie na wizualizacji wstęgowej widać wyraźnie jak intensywność zakupów i poziom konwersji wzrósł w okresie Bożego Narodzenia 2020 r. Mamy tutaj także typowy wykres typu marketing funnel oraz rozkład pojedynczych sesji w zależności od czasu trwania i przychodu na sesję.
W odróżnieniu od pozostałych projektów, ten jest oparty o realne dane ze sklepu Google. Chciałem w nim pokazać, jak za pomocą narzędzi business intelligence możemy możemy poradzić sobie z problemem braku zindywidualizowanego raportu w Google Analytics. Przykładowo, na bazie danych z tego źródła mogliśmy stworzyć zindywidualizowane miary wg innych definicji niż w GA np. średni przychód na sesję, aktywni użytkownicy w ostatnich 14 dniach albo zmodyfikować liczenie standardowych miar jak np. średni czas trwania sesji, przychód na użytkownika (ARPU) czy nawet poszczególne wizualizacje np. rozkład sesji w zależności od czasu trwania i przychodu.
W tym projekcie korzystałem z publicznego datasetu bigquery-public-data.ga4_obfuscated_sample_ecommerce, który ma licencję open source i pozwala ćwiczyć eksplorację danych w formacie normalnie udostępnianym przez Google Analytics 4 API dla istniejącego sklepu internetowego Google Merchandise Store (https://shop.merch.google/). Ze względu na ograniczenia w korzystaniu z GA4 API, korzystałem z tego źródła danych za pomocą Google Cloud Big Query API, wykonując bezpośrednie zapytania SQL w tym serwisie.
Ten projekt jest mocno osadzony w środowisku Google, ja korzystałem głównie z Google Analytics 4, Google Cloud Platform (Big Query studio, Big Query API). Ponadto: AI Copilot do testowania zapytań SQL w Big Query oraz miar DAX, Power BI Desktop (główne środowisko), Power BI Service (zarządzanie), Power Query (modelowanie)
Największym problemem był typowy dla Google Analytics format danych przechowywanych przez Big Query, a także ich duży rozmiar. Musiałem tak zoptymalizować zapytania w Big Query, by jednocześnie dobrać ciekawe dane, rozwinąć zagnieżdżone dane (SQL UNNEST) i nie przeciążać Power BI na późniejszych etapach budowania raportu. Dzięki temu nie musiałem wykonywać zbyt wielu transformacji w Power Query.
Poświęciłem także nieco czasu na poznanie samej platformy Google Analytics i lekturę dokumentacji o standardowych miarach używanych przez GA oraz o tym, jak ta platforma współpracuje z Big Query. Raportowanie przez Google Analytics jest skupione wokół zdarzeń na stronie (events) i obudowane przez liczne standardowe miary i wymiary tak, że przykładowo kwartalny dataset może mieć nawet kilkadziesiąt milionów wierszy rekordów. Do tego raportu wybrałem kilka moim zdaniem najciekawszych wymiarów (items, traffic, device) tak, aby pokazać możliwości business intelligence. Pewnych trudności nastręczało także zoptymalizowanie wydajności wizualizacji, budowa zindywidualizowanych miar w DAX, konfiguracja interakcji między wizualizacjami, zoptymalizowanie nawigacji pomiędzy stronami raportu i przygotowanie wersji mobilnej.
Przykładowe zdjęcia z pracy nad raportem poniżej:
E-mail: kontakt@jakubwozniak.pl