Microsoft Power BI- pierwsze wrażenie

Miało być czasami technicznie to i będzie.

Pogadamy sobie teraz o Power BI i moich pierwszych przygodach.

Trochę o tym pisałem, bardzo pigułkowato o tym, że Power BI gada z źródłami ODBC, o tutaj.

Ćwiczenie, które teraz realizuję polega na pokazaniu ścieżek poruszania się klienta na drzewku IVR, korzystania z self serwisów i łączenia się z żywym człowiekiem.

Zadanie oczywiście ciekawe i rzecz jasna proste też być nie może.

W wielkim skrócie trzeba zrobić tak:

  • Zinterpretować logi z kilku miejsc
  • Ustalić optymalny klucz do agregowania
  • Machnąć enumerację zdarzeń
  • Dorobić kilka słowników, żeby życie stało się łatwiejsze
  • Pokazać jakieś eleganckie obrazki z tego tak co by nikt głupich pytań nie zadawał

W zasadzie robota jak każda inna. Trzeba trochę zrobić backendu. Zrobić harmonogram zrzutów. Pieprzyć się z delikatnymi zmianami tak, żeby wszystko było super jasne. Nie robić hardkodów tam, gdzie tylko się da.

W praktyce jakieś 2-3 tygodnie jeszcze mnie czeka, to i można ustalić, że pisać o tym będę. Wszak tajemnicą korporacji to nie jest więc pisać mogę tak długo jak nie wrzucam tutaj plików płaskich z danymi 😉 Swoją drogą już widzę jak ktoś czytający rozwala na części składowe Jsony z logów. O tym swoją drogą też napiszę jak już opanuję robienie tego w SASie.

Co do zestawu narzędzi to jak następuje:

  • Power BI jako wyświetlacz
  • SAS Enterprise Guide jako analizator
  • Hive jako magazyn

Nie wdając się w detale dotyczące analityki i subtelnych metod składania danych w kupę.

SAS okazuje się nadal bardzo dobrym narzędziem do robienia analizy i ogólnego składania danych w kupę. Dostajemy do ręki SQLa, który sam w sobie jest mocnym językiem. Mamy jeszcze 4GL. Taki własny język SASa do robienia analizy. Metody udostępniane przez ten język są przejrzyste i dają od groma możliwości. Jakieś grupowania, enumeracje, transponowanie, poprawa jakości. To wszystko robi się wygodnie i szybko. Jest jakiś powód, dla którego jeśli kiedyś będę szukał pracy to pójdę tam, gdzie jest SAS na pokładzie. Mam sentyment i wielką swobodę pracy.

Hive jak Hive. Składowanie. Power BI łączy się z nim po ODBC. Ciągnie aż miło.

Tutaj też pojawia się pierwszy kłopocik.

Power BI jest fajnym narzędziem. Nawet przemyślanym. Trochę brakuje mi (pewnie nie umiem) wejścia w kod i robienia samodzielnie zmian niektórych rzeczy. Jedzie na trendzie bycia klikadłem.

Kłopot, o którym wspominam to silnik analiyczny. Power BI fajnie agreguje rzeczy ale bez przesady. Wciągnięcie 5-6 kk rekordów x naście kolumn to śmierć dla tego narzędzia. Samo wsysanie danych trawa niemiłosiernie długo i doprowadza moją maszynę do stanu śmierci klinicznej. Nie polecam. Oczywiście Microsoft mówi o limicie danych. Cośtam o tym, ze 1 GB. O tutaj.

Jednak ja bańki nie przebiłem. Kolumny tekstowe to kilka znaków. Reszta liczby i to też niewielkie. Szału nie było.

Zastanawiam się teraz nad tym na ile problem leży po stronie konfiguracji mojej maszyny, a na ile po stronie samego narzędzia. W każdym bądź razie nie ma sensu płakać nad rozlanym mlekiem.

Konkluzja jest taka, żeby do Power BI importować dane zagregowane.

Oczywiście, trzeba narobić naście wymiarów, żeby miało to sens i tak i tak zawsze będzie za mało. Za to unikniemy dłuższych przerw w pracy, które spowoduje nam sam Power BI na potrzeby przekręcenia tabelki z lewa na prawą.

Dashboard

Tutaj niespodzianka. Microsoft wrzucił sporo komponentów do wizualizacji do sklepu. Uwaga istotna dla osób działających z Power BI po raz pierwszy.

Komponenty ściągamy gratis. Dostajemy się do nich poprzez odklikanie tych kropek z obrazka obok.

Elementów jest trochę i wyglądają na takie robione po części przez społeczność, a potem przepuszczane przez sito weryfikacyjne giganta z Redmond.

Warto się z tym zapoznać bo domyślne wizualizatory nie pozwalają zrobić tego co widzieli nasi managerowie w folderach handlowych. Te wszystkie liczniki i takie tam. No nie zobaczą tego z domyślnych komponentów. Po prostu.

Co do samego dashboardu to mam nieodparte wrażenie, że ekran jest za mały. Wiem, że to wszystko zostało przygotowane tak, żeby działało nieźle na www i komórce. Jednak kurczę… Coś mi nie pasuje. Może to kwestia przyzwyczajenia? Same menusy zajmują dużo miejsca. Wstążka + menu boczne to jednak kawałek przestrzeni, której zwyczajnie szkoda. Z drugiej strony jest to potrzebne do edycji wykresów. Taki kompromis.

Sama wizualizacja przebiega relatywnie dobrze.

Należy wciągnąć dane za pomocą importu.

Potem poprzeciągać odpowiednie pola i dostajemy takie obrazki na jakie zasługujemy.

Możemy sobie zrobić np. ładną chmurę tekstu. Ta akurat oparta jest o dane z Google Analytics dla tego bloga.

Równie dobrze może to być tort, słupki, bąbelki i inne śliczności. Trzeba to przyznać. Power BI jak już dostanie odpowiednio przygotowane dane to potrafi z nimi sporo zrobić.

Nadal jednak nie unikniemy kluczowego elementu związanego z przygotowaniem tabelki. Nie da się tego uniknąć.

Co po tych pierwszych kilku dniach?

Będę się powtarzał.

Power BI to nie jest narzędzie do robienia koszmarnie trudnej analityki. Trochę nadaje się do łączenia tabel (z tego co czytałem) ale zupełnie nie nadaje się do robienia skomplikowanej analizy. Dane lepiej wyczyścić przed importem, nawet kosztem harmonogramowania przeliczeń na noc lub w trakcie dnia.

Z drugiej strony produkuje świetne wizualizacje. W połączeniu z filtrowaniem danych, wieloma komponentami wyświetlającymi i bardzo szeroką integrowalnością, dostajemy do rąk bardzo dobre narzędzie. Wygląda również na to, że samo narzędzie się rozwija. Dochodzą kolejne „zegarki”. Podobno można też samemu coś wykonać (jest opcja importu wizualizatora z pliku), trzeba się przyjrzeć 😉

Czego się wystrzegać? Dużych, nie oczyszczonych zbiorów danych. Powodują one kłopoty dla dewelopera, bo w końcu trzeba trochę poczekać na odświeżanie. Co gorsza generują też problemy dla odbiorców końcowych. Już widzę jak dyrektorstwo czeka 15 minut, żeby zobaczyć jedną liczbę. Bez sensu. Już nawet nie chodzi o to, że dyrektor to człowiek niecierpliwy. Po prostu nie tak ma to działać.

Tekst zrobił się bardzo długi. Jeśli dotarłeś aż tutaj to możesz zostawić komentarz. Jeśli brednie, które opowiadam są dla Ciebie nie najgłupsze to może zapiszesz się do subskrypcji?

Besos

 

Google Analytics dla zaawansowanych

Nie planowałem tego, przynajmniej nie w takim tempie. Taki dzień. Cóż 😉

Udało mi się pokonać kolejny kurs Googla i będę szczery. Kurs jest świetny, tego właśnie było mi trzeba.

Wersja zaawansowana szkolenia z Google Analitycs to nic innego jak ogrom teorii połączony z praktyką.

Dostajemy w swoje łapki konto testowe z przygotowanymi już danymi, gdzie możemy się bawić do woli. Agregować, szukać, sprawdzać, dotykać, psuć i naprawiać.

Serio. Super robota Google.

Kurs dostępny jest tutaj.

Co to szkolenie daje?

Pigułkę wiedzy na temat tego co można z Analitycs zrobić. Oczywiście nic nie zastąpi praktyki (jest ona częścią kursu). Ważne jest jednak to, że dostajemy wszystko w formie skompresowanych informacji. Co, jak, gdzie, dlaczego? Na wiele z tych prozaicznych pytań uzyskamy odpowiedzi przechodząc przez kolejne lekcje.

Kurs ma 4 działy, o których w dużym skrócie poniżej.

Zbieranie i przetwarzanie danych

Pierwszy moduł to ogólne spojrzenie na panel administracyjny oraz informacje co tak naprawdę zbieramy dzięki śledzeniu ruchu. Dobry start chociaż po kilku dniach samodzielnej zabawy, większość rzeczy była dla mnie na tyle oczywista, że nie skorzystałem zbyt wiele.

Ustawienie zbierania danych i konfiguracji

W drugim dziale dostajemy do rąk niestandardowe metody oglądania ruchu. Jest to bardzo ważny komponent. Pozwala nam dostosować raportowanie dokładnie do tego co chcemy zobaczyć. Tutaj w zasadzie po raz pierwszy widzimy to jak potężne narzędzie dostajemy do rąk.

Chcemy zobaczyć jak nam się klika przycisk po wysyłce e-maila? To jest to miejsce, gdzie wszystko sobie poukładamy i będziemy mogli przeliczać dolary.

Zaawansowane narzędzia i metody analityczne

To był dział dla mnie. No dobra, po przejściu poprzednich modułów i obejrzeniu na własną rękę co można uzyskać, miałem jakieś wyobrażenie.

Nie jestem rozczarowany. Metody agregowania danych są takie jakich potrzeba. Nie ma znaczenia czy mówimy o rynku e-commerce czy o oglądaniu jak się czytają notki na blogu. Trzeci moduł mówi o tym jak można agregować, co warto oglądać.

Zaawansowane narzędzia marketingowe

To dział raczej dla marketerów niż dla mnie. Przynajmniej teraz nie jest to dla mnie na tyle istotne, chociaż? Poznajemy metody korzystania z reklam mający za zadanie, nie ma się co wygłupiać- zarabianie kasy. Remarketing? Ważne pojęcie w internecie. Sprawdźcie sami.

Podsumowując

Tego mi było trzeba. W sposób łatwy i przejrzysty Google pokazał mi jak korzystać z narzędzia, pokazał, że na co warto zwrócić uwagę. Szczerze mówiąc liczyłem na kurs bardzo suchy, pełny teorii i zachwycania się nad sobą. Po raz drugi Google pokazał, że potrafi robić szkolenia.

Wiedza, którą wyniosłem głównie sprowadza się do pokazania jak wiele informacji jest zbieranych od użytkowników internetu. Dla analityków takich jak ja, daje to ogromne możliwości reagowania, dostosowywania treści, wskazywania rozwiązań.

Jednym zdaniem. Świetny kurs dla osób technicznych ale na upartego nie tylko.

A co Wy na ten temat sądzicie? Warto iść dalej w analitykę internetową?

Zasilanie Power BI danymi z Hadoop czyli pokazujemy śmietnik

Teraz będzie poważnie. Nadal na mój własny sposób ale jednak poważnie.

Od razu mówię, że jest to poradnik w pigułce. Będzie kilka zrzutów ale bez szczegółów.

Hadoop i Power Bi.

Takie ćwiczenie wpadło mi do zrobienia. Otóż temat w zasadzie jest prosty i tutaj chciałbym co nieco o nim powiedzieć.

W przypadku konfiguracji, na której mi przyjdzie pracować mam do wykonania kilka czynności.

Ale najpierw o tym co może Power BI, bo to determinuje całą resztę.

Power BI pozwala na połączenie się z masą różnych dziwnych źródeł danych. Oprócz takich trywialnych jak bazy danych Oracla czy innego MySQLa, może też pogadać z Teradatą, ogarnie się z plikami na serwerach i innym dziadostwem pokroju Sharepoint. Tak, w końcu to ekosystem Microsoftu więc gadanie z Sharepointem jest naturalne. Co ciekawe i z całą pewnością istotne to można wizualizować sobie w miarę przyjemnie listy niestandardowe z Sharepoint, właśnie w Power BI. Cóz, na upartego Sharepoint + Power BI = Jira + Confuence.

Co jednak z tym moim Hadoopem?

Z przyczyn obiektywnych Big Data jest bardzo dobrym pomysłem na składanie w kupę danych. Pozwala zrzucać tony informacji, zakładać partycjonowanie i ogólnie być fajne. Dobra, chodzi o to, że mogę składować ile chcę i nikt nie będzie mi płakał, że jest za dużo. Bo tam ma być dużo. Po prostu.

Jakie kroki trzeba wykonać, żeby się dogadać z tym ustrojstwem?

Najpierw trzeba w moim przypadku wejść sobie tutaj:

https://hortonworks.com/downloads/#data-platform

i pociągnąć, o to, to:

Co potem?

Wskakujemy w źródła ODBC i sobie konfigurujemy odpowiednio, zgodnie z tym jak się z Big Data łączymy.

Dalej? A to już z górki. Podpinamy do naszego ślicznego, nowiuśkiego Power BI odpowiednie źródełko. Robimy to, o tak jak niżej. I tak. Nazwałem źródło „kjh”. Zła nazwa?

Jak już się łączyć będziemy to dostaniemy klika pytań z serii durnych o uwierzytelnianie i tego typu rzeczy. Wiem, że bezpieczeństwo to ważna rzecz ale pytania tego typu są durne.

Tyle.

Źródełko podpięte, można śmigać i ku chwale korporacji korzystać z dobrodziejstwa całkiem fajnego narzędzia do wizualizacji i śmietnika w postaci Big Data.