Supermicro

Pojawił się bardzo ciekawy artykuł na stronie niebezpiecznika: https://niebezpiecznik.pl/post/chiny-backdoor-apple-amazon-sprzet-supermicro/ jest on powiązany z tekstem bloomberga: https://www.bloomberg.com/news/features/2018-10-04/the-big-hack-how-china-used-a-tiny-chip-to-infiltrate-america-s-top-companies

Jako, że nie jestem ekspertem do spraw bezpieczeństwa, szczególnie sprzętowego, to ciężko mi ocenić wiarygodność tych tekstów. Zwłaszcza, że największe firmy świata wydają już oświadczenia, że ich ten problem nie dotyczy, oni mają wszystko pod kontrolą, sprawdzili sobie. Wypowiadają się szefowie bezpieczeństwa Apple, Amazona i Facebooka. Oświadczenia są bardzo precyzyjne, nie wymijające jak to ma zwykle miejsce. Możliwe, że nie jest to temat istotny dla szerokiej masy, jednak warto się pochylić chwilę nad tym problemem i spojrzeć na niego z innej perspektywy. Czytaj dalej Supermicro

Microsoft Power BI- pierwsze wrażenie

Miało być czasami technicznie to i będzie.

Pogadamy sobie teraz o Power BI i moich pierwszych przygodach.

Trochę o tym pisałem, bardzo pigułkowato o tym, że Power BI gada z źródłami ODBC, o tutaj.

Ćwiczenie, które teraz realizuję polega na pokazaniu ścieżek poruszania się klienta na drzewku IVR, korzystania z self serwisów i łączenia się z żywym człowiekiem.

Zadanie oczywiście ciekawe i rzecz jasna proste też być nie może.

W wielkim skrócie trzeba zrobić tak:

  • Zinterpretować logi z kilku miejsc
  • Ustalić optymalny klucz do agregowania
  • Machnąć enumerację zdarzeń
  • Dorobić kilka słowników, żeby życie stało się łatwiejsze
  • Pokazać jakieś eleganckie obrazki z tego tak co by nikt głupich pytań nie zadawał

W zasadzie robota jak każda inna. Trzeba trochę zrobić backendu. Zrobić harmonogram zrzutów. Pieprzyć się z delikatnymi zmianami tak, żeby wszystko było super jasne. Nie robić hardkodów tam, gdzie tylko się da.

W praktyce jakieś 2-3 tygodnie jeszcze mnie czeka, to i można ustalić, że pisać o tym będę. Wszak tajemnicą korporacji to nie jest więc pisać mogę tak długo jak nie wrzucam tutaj plików płaskich z danymi 😉 Swoją drogą już widzę jak ktoś czytający rozwala na części składowe Jsony z logów. O tym swoją drogą też napiszę jak już opanuję robienie tego w SASie.

Co do zestawu narzędzi to jak następuje:

  • Power BI jako wyświetlacz
  • SAS Enterprise Guide jako analizator
  • Hive jako magazyn

Nie wdając się w detale dotyczące analityki i subtelnych metod składania danych w kupę.

SAS okazuje się nadal bardzo dobrym narzędziem do robienia analizy i ogólnego składania danych w kupę. Dostajemy do ręki SQLa, który sam w sobie jest mocnym językiem. Mamy jeszcze 4GL. Taki własny język SASa do robienia analizy. Metody udostępniane przez ten język są przejrzyste i dają od groma możliwości. Jakieś grupowania, enumeracje, transponowanie, poprawa jakości. To wszystko robi się wygodnie i szybko. Jest jakiś powód, dla którego jeśli kiedyś będę szukał pracy to pójdę tam, gdzie jest SAS na pokładzie. Mam sentyment i wielką swobodę pracy.

Hive jak Hive. Składowanie. Power BI łączy się z nim po ODBC. Ciągnie aż miło.

Tutaj też pojawia się pierwszy kłopocik.

Power BI jest fajnym narzędziem. Nawet przemyślanym. Trochę brakuje mi (pewnie nie umiem) wejścia w kod i robienia samodzielnie zmian niektórych rzeczy. Jedzie na trendzie bycia klikadłem.

Kłopot, o którym wspominam to silnik analiyczny. Power BI fajnie agreguje rzeczy ale bez przesady. Wciągnięcie 5-6 kk rekordów x naście kolumn to śmierć dla tego narzędzia. Samo wsysanie danych trawa niemiłosiernie długo i doprowadza moją maszynę do stanu śmierci klinicznej. Nie polecam. Oczywiście Microsoft mówi o limicie danych. Cośtam o tym, ze 1 GB. O tutaj.

Jednak ja bańki nie przebiłem. Kolumny tekstowe to kilka znaków. Reszta liczby i to też niewielkie. Szału nie było.

Zastanawiam się teraz nad tym na ile problem leży po stronie konfiguracji mojej maszyny, a na ile po stronie samego narzędzia. W każdym bądź razie nie ma sensu płakać nad rozlanym mlekiem.

Konkluzja jest taka, żeby do Power BI importować dane zagregowane.

Oczywiście, trzeba narobić naście wymiarów, żeby miało to sens i tak i tak zawsze będzie za mało. Za to unikniemy dłuższych przerw w pracy, które spowoduje nam sam Power BI na potrzeby przekręcenia tabelki z lewa na prawą.

Dashboard

Tutaj niespodzianka. Microsoft wrzucił sporo komponentów do wizualizacji do sklepu. Uwaga istotna dla osób działających z Power BI po raz pierwszy.

Komponenty ściągamy gratis. Dostajemy się do nich poprzez odklikanie tych kropek z obrazka obok.

Elementów jest trochę i wyglądają na takie robione po części przez społeczność, a potem przepuszczane przez sito weryfikacyjne giganta z Redmond.

Warto się z tym zapoznać bo domyślne wizualizatory nie pozwalają zrobić tego co widzieli nasi managerowie w folderach handlowych. Te wszystkie liczniki i takie tam. No nie zobaczą tego z domyślnych komponentów. Po prostu.

Co do samego dashboardu to mam nieodparte wrażenie, że ekran jest za mały. Wiem, że to wszystko zostało przygotowane tak, żeby działało nieźle na www i komórce. Jednak kurczę… Coś mi nie pasuje. Może to kwestia przyzwyczajenia? Same menusy zajmują dużo miejsca. Wstążka + menu boczne to jednak kawałek przestrzeni, której zwyczajnie szkoda. Z drugiej strony jest to potrzebne do edycji wykresów. Taki kompromis.

Sama wizualizacja przebiega relatywnie dobrze.

Należy wciągnąć dane za pomocą importu.

Potem poprzeciągać odpowiednie pola i dostajemy takie obrazki na jakie zasługujemy.

Możemy sobie zrobić np. ładną chmurę tekstu. Ta akurat oparta jest o dane z Google Analytics dla tego bloga.

Równie dobrze może to być tort, słupki, bąbelki i inne śliczności. Trzeba to przyznać. Power BI jak już dostanie odpowiednio przygotowane dane to potrafi z nimi sporo zrobić.

Nadal jednak nie unikniemy kluczowego elementu związanego z przygotowaniem tabelki. Nie da się tego uniknąć.

Co po tych pierwszych kilku dniach?

Będę się powtarzał.

Power BI to nie jest narzędzie do robienia koszmarnie trudnej analityki. Trochę nadaje się do łączenia tabel (z tego co czytałem) ale zupełnie nie nadaje się do robienia skomplikowanej analizy. Dane lepiej wyczyścić przed importem, nawet kosztem harmonogramowania przeliczeń na noc lub w trakcie dnia.

Z drugiej strony produkuje świetne wizualizacje. W połączeniu z filtrowaniem danych, wieloma komponentami wyświetlającymi i bardzo szeroką integrowalnością, dostajemy do rąk bardzo dobre narzędzie. Wygląda również na to, że samo narzędzie się rozwija. Dochodzą kolejne „zegarki”. Podobno można też samemu coś wykonać (jest opcja importu wizualizatora z pliku), trzeba się przyjrzeć 😉

Czego się wystrzegać? Dużych, nie oczyszczonych zbiorów danych. Powodują one kłopoty dla dewelopera, bo w końcu trzeba trochę poczekać na odświeżanie. Co gorsza generują też problemy dla odbiorców końcowych. Już widzę jak dyrektorstwo czeka 15 minut, żeby zobaczyć jedną liczbę. Bez sensu. Już nawet nie chodzi o to, że dyrektor to człowiek niecierpliwy. Po prostu nie tak ma to działać.

Tekst zrobił się bardzo długi. Jeśli dotarłeś aż tutaj to możesz zostawić komentarz. Jeśli brednie, które opowiadam są dla Ciebie nie najgłupsze to może zapiszesz się do subskrypcji?

Besos

 

Google Analytics dla zaawansowanych

Nie planowałem tego, przynajmniej nie w takim tempie. Taki dzień. Cóż 😉

Udało mi się pokonać kolejny kurs Googla i będę szczery. Kurs jest świetny, tego właśnie było mi trzeba.

Wersja zaawansowana szkolenia z Google Analitycs to nic innego jak ogrom teorii połączony z praktyką.

Dostajemy w swoje łapki konto testowe z przygotowanymi już danymi, gdzie możemy się bawić do woli. Agregować, szukać, sprawdzać, dotykać, psuć i naprawiać.

Serio. Super robota Google.

Kurs dostępny jest tutaj.

Co to szkolenie daje?

Pigułkę wiedzy na temat tego co można z Analitycs zrobić. Oczywiście nic nie zastąpi praktyki (jest ona częścią kursu). Ważne jest jednak to, że dostajemy wszystko w formie skompresowanych informacji. Co, jak, gdzie, dlaczego? Na wiele z tych prozaicznych pytań uzyskamy odpowiedzi przechodząc przez kolejne lekcje.

Kurs ma 4 działy, o których w dużym skrócie poniżej.

Zbieranie i przetwarzanie danych

Pierwszy moduł to ogólne spojrzenie na panel administracyjny oraz informacje co tak naprawdę zbieramy dzięki śledzeniu ruchu. Dobry start chociaż po kilku dniach samodzielnej zabawy, większość rzeczy była dla mnie na tyle oczywista, że nie skorzystałem zbyt wiele.

Ustawienie zbierania danych i konfiguracji

W drugim dziale dostajemy do rąk niestandardowe metody oglądania ruchu. Jest to bardzo ważny komponent. Pozwala nam dostosować raportowanie dokładnie do tego co chcemy zobaczyć. Tutaj w zasadzie po raz pierwszy widzimy to jak potężne narzędzie dostajemy do rąk.

Chcemy zobaczyć jak nam się klika przycisk po wysyłce e-maila? To jest to miejsce, gdzie wszystko sobie poukładamy i będziemy mogli przeliczać dolary.

Zaawansowane narzędzia i metody analityczne

To był dział dla mnie. No dobra, po przejściu poprzednich modułów i obejrzeniu na własną rękę co można uzyskać, miałem jakieś wyobrażenie.

Nie jestem rozczarowany. Metody agregowania danych są takie jakich potrzeba. Nie ma znaczenia czy mówimy o rynku e-commerce czy o oglądaniu jak się czytają notki na blogu. Trzeci moduł mówi o tym jak można agregować, co warto oglądać.

Zaawansowane narzędzia marketingowe

To dział raczej dla marketerów niż dla mnie. Przynajmniej teraz nie jest to dla mnie na tyle istotne, chociaż? Poznajemy metody korzystania z reklam mający za zadanie, nie ma się co wygłupiać- zarabianie kasy. Remarketing? Ważne pojęcie w internecie. Sprawdźcie sami.

Podsumowując

Tego mi było trzeba. W sposób łatwy i przejrzysty Google pokazał mi jak korzystać z narzędzia, pokazał, że na co warto zwrócić uwagę. Szczerze mówiąc liczyłem na kurs bardzo suchy, pełny teorii i zachwycania się nad sobą. Po raz drugi Google pokazał, że potrafi robić szkolenia.

Wiedza, którą wyniosłem głównie sprowadza się do pokazania jak wiele informacji jest zbieranych od użytkowników internetu. Dla analityków takich jak ja, daje to ogromne możliwości reagowania, dostosowywania treści, wskazywania rozwiązań.

Jednym zdaniem. Świetny kurs dla osób technicznych ale na upartego nie tylko.

A co Wy na ten temat sądzicie? Warto iść dalej w analitykę internetową?

Marketing Internetowy w ramach programu Internetowe Rewolucje

Jak zapewne się zorientowałeś drogi czytelniku po zdjęciu widocznym wyżej, no cośtam dostałem od Googla. Prawie gratis. Tyle wiedzy, że łohohoho.

Na poważnie. Początkowo stwierdziłem, że poklikam i zobaczę co to gigant wypuścił na światło dzienne. Zakładałem jakże mylnie, że niewiele nowości poznam. Ok. Z tą mylnością to różnie było. Może to te lata w Marketingu i drugie tyle w analityce powodują, że posiadłem dodatkowy zmysł. Ciężko mi ocenić.

Certyfikat jak certyfikat. W zasadzie można go uzyskać metodą prób i błędów czyli w sposób chamski i bezczelny. Ostatecznie po pobieżnym spojrzeniu na pytania można dostosować odpowiedzi, potem najwyżej poprawić te błędne. Cóż. Czyli to nie jest ekskluzywny PDF.

Dla chętnych kurs jest tutaj, a o tym kto powinien być chętnym trochę niżej.

Czego się w takim razie spodziewałem?

Liczyłem mocno na to, że Google będzie promował usługi swoje i się nie myliłem. Opowiadają jak to fajnie jest korzystać z Analitics, jak istotne jest dobre życie z ich tajemniczą szukajką oraz mówią wprost, że nie ma co liczyć na to, że będą grzecznie stać w miejscu. Marketing w sieci to niekończąca się pętla szperania w danych i poprawiania. Takie życie.

Narzędzi i reklam Googla się spodziewałem. Natomiast, wielokrotnie, powtarzali, że nie koniecznie powinno się pchać w płatne rozwiązania. Ciekawe, bo w końcu na tym cały serwis zarabia. Okazuje się, że proponują najpierw się nauczyć, spróbować metod pozycjonowania, a dopiero potem jak już będziemy dojrzali to udać się w kierunku reklam płatnych.

To wszystko brzmi strasznie rozsądnie. Nie będę się sprzeczał, że tak w rzeczywiści jest. Jak mantrę powtarzali: najpierw pomysł i plan, potem analiza i na końcu otwieranie portfela. Mądre to stwierdzenie, a kurczę jakoś tak się o tym zapomina. Z resztą nie jestem wyjątkiem. Poprawię się.

Czego nie oczekiwałem?

Technikaliów. Liczyłem się z tym, że zahaczą o chociażby Analitics. W zasadzie nie mieli wyjścia. Jednak będę szczery sam ze sobą. To był kurs bardzo ogólny, przeznaczony dla marketerów o raczej miękkich umiejętnościach, nie miał mnie nauczyć obserwowania wszystkich wymiarów. Raczej miał mi powiedzieć co platforma posiada i jak można to wykorzystać docelowo. Ani słowa o tym jak zrobić technicznie.

Co mnie zaskoczyło?

Jaki głupi jestem. W zasadzie to ja te wszystkie zasady znam. Ba! Widzę je każdego dnia. Na każdym kroku mamy CTA, tagowanie. Cholera, niech no ja zerknę na mojego Instagrama. Wszystko takie oczywiste i nie korzystam, nie robię.

Trzeba zacząć, bo to tak być nie może. Przecież kurczę. Skoro potrafię to robić i robię podobne rzeczy chociażby służbowo to przecież będę też w stanie to zrobić prywatnie. Jak to było? Budując markę osobistą. Ta. Będzie budowane.

Po co?

W sumie dla zabawy. Miałem wolne 3-4 godziny to zrobiłem. Na wiele nie liczyłem to i wiele nie dostałem.

Chociaż ciężko odmówić tego, że ten kurs uporządkował mi wiedzę. Bardzo uporządkował. W zasadzie poczułem się jak po sesji inspiracyjnej, podczas której gość za grubą kasę opowiada truizmy, potem wychodzisz i jesteś nowym sobą. Mniej więcej tak to wygląda teraz, kiedy piszę ten tekst.

Dla kogo w takim razie to jest?

Polecam przejść przez tą ofertę Googla osobom zuchwałym, uważającym, że się na wszystkim znają i jednocześnie pracują w szeroko pojętej branży internetowej. Układa w głowie. Warto.

Zdecydowanie powinny zapoznać się z materiałem osoby, które zaczynają działać w sieci i/lub chcą rozwinąć zasięgi. Serio. To nie jest wiedza tajemna, nie jest bardzo techniczna ale niesamowicie przydatna. To wszystko są takie banalne szczegóły. Dobre klucze, chwytające za serce tytuły. Brać i korzystać. Większość społeczeństwa nie ma o tym pojęcia lub płaci firmom za tego typy rzeczy. Trzeba byś mądrzejszym 😉

A Ty, drogi czytelniku, co o tym sądzisz? Komentarze są Wasze.

Zasilanie Power BI danymi z Hadoop czyli pokazujemy śmietnik

Teraz będzie poważnie. Nadal na mój własny sposób ale jednak poważnie.

Od razu mówię, że jest to poradnik w pigułce. Będzie kilka zrzutów ale bez szczegółów.

Hadoop i Power Bi.

Takie ćwiczenie wpadło mi do zrobienia. Otóż temat w zasadzie jest prosty i tutaj chciałbym co nieco o nim powiedzieć.

W przypadku konfiguracji, na której mi przyjdzie pracować mam do wykonania kilka czynności.

Ale najpierw o tym co może Power BI, bo to determinuje całą resztę.

Power BI pozwala na połączenie się z masą różnych dziwnych źródeł danych. Oprócz takich trywialnych jak bazy danych Oracla czy innego MySQLa, może też pogadać z Teradatą, ogarnie się z plikami na serwerach i innym dziadostwem pokroju Sharepoint. Tak, w końcu to ekosystem Microsoftu więc gadanie z Sharepointem jest naturalne. Co ciekawe i z całą pewnością istotne to można wizualizować sobie w miarę przyjemnie listy niestandardowe z Sharepoint, właśnie w Power BI. Cóz, na upartego Sharepoint + Power BI = Jira + Confuence.

Co jednak z tym moim Hadoopem?

Z przyczyn obiektywnych Big Data jest bardzo dobrym pomysłem na składanie w kupę danych. Pozwala zrzucać tony informacji, zakładać partycjonowanie i ogólnie być fajne. Dobra, chodzi o to, że mogę składować ile chcę i nikt nie będzie mi płakał, że jest za dużo. Bo tam ma być dużo. Po prostu.

Jakie kroki trzeba wykonać, żeby się dogadać z tym ustrojstwem?

Najpierw trzeba w moim przypadku wejść sobie tutaj:

https://hortonworks.com/downloads/#data-platform

i pociągnąć, o to, to:

Co potem?

Wskakujemy w źródła ODBC i sobie konfigurujemy odpowiednio, zgodnie z tym jak się z Big Data łączymy.

Dalej? A to już z górki. Podpinamy do naszego ślicznego, nowiuśkiego Power BI odpowiednie źródełko. Robimy to, o tak jak niżej. I tak. Nazwałem źródło „kjh”. Zła nazwa?

Jak już się łączyć będziemy to dostaniemy klika pytań z serii durnych o uwierzytelnianie i tego typu rzeczy. Wiem, że bezpieczeństwo to ważna rzecz ale pytania tego typu są durne.

Tyle.

Źródełko podpięte, można śmigać i ku chwale korporacji korzystać z dobrodziejstwa całkiem fajnego narzędzia do wizualizacji i śmietnika w postaci Big Data.

Po co nam ta cała analityka?

Zacznijmy od rysu historycznego.

Miałem jakieś 14-15 lat. Wiecie co się wtedy działo na świecie?

No dobra, skąd możecie wiedzieć skoro nie wiecie ile mam lat.

Powiem, będzie łatwiej.

Pokemony się pojawiły w TV. Ja do tego miałem komputerek. Pieszczotliwie dziada nazywałem Trabantem. Stare to było, słabiutkie. Działał na nim ledwo Baldur`s Gate i Office.

Co powstało z połączenia Pokemonów i działającego pakietu Office?

Najlepsze jest to, że całkiem nieźle zaprojektowana baza danych będąca Pokedex`em. Masa tabelek, relacji, formularzy. Wiecie po co to zrobiłem? Bo przepisywałem z emulowanego Pokemon Red na kartkę kluczowe informacje, potem przenosiłem do bazy danych, żeby na koniec dnia móc się wygodniej bawić z bratem jak to udawaliśmy trenerów i walczyliśmy ze sobą.

Minęło te 15 lat i trzeba by stać się dorosłym człowiekiem. Dobra, bez przesady. Dalej w Pokemony gram i trochę czekam na to jak wyjdą na Nintendo Switch, żeby ze spokojem w duszy powiedzieć, że na święta (których nie obchodzę) kupię sobie konsolkę z Pokemonami.

To już wiemy co mi zostało. Zabawki. Została mi również analityka. To w zasadzie jest moja praca. Siedzenie w tabelkach i szukanie dziwactw. Niekiedy robienie nudnych raportów, tego to nie lubię.

Dziedzina jest na tyle ciekawa i zmieniająca się, że trzeba się uczyć. Ciągle, nieustannie.

Zapukał do moich drzwi etap analityki ruchu WWW. O czym można pomyśleć? No tak o Google Analitics. W zasadzie narzędzie zmonopolizowało to co rozumiemy pod pojęciem badania ruchu na stronach. Trzeba korzystać.

Jak już wspominałem w wpisie odnośnie narzędzia do wizualizacji. Trzeba się uczyć od lepszych.

Potraktowałem wyzwanie poważnie. Jednocześnie z dużą dozą dystansu. Sorry, nie będziecie mi mówić, że jeśli coś jest zrobione dobrze to mam nie pooglądać bo nie wypada. Tak się niczego nie odkrywa.

Znalazłem praktyczne wykorzystanie analityki Google w perspektywie biznesowej, gdzie wykorzystanie zdobywanej wiedzy codziennie poprawia działanie narzędzia, pozwala na uczyć algorytmy pozycjonujące, poprawia jakość korzystania.

Wyobraźmy sobie usługę, która jest kierowana do konkretnego grona odbiorów. Klient ma dostęp do dziesiątek wariantów. Zależy mu jednak na czasie. Nie chce być też rozpraszany przez nie adekwatne propozycje. Istotne są dla niego konkretne, bardzo szczegółowe trendy. Zależnie od wielu czynników opcja produktu będzie inna dla Kowalskiego z Warszawy i Nowaka z Pcimia Górnego.

Zastanówcie się co to może być?

Pewnie strzelacie jakimiś samochodami, pralkami, mieszkaniami, biżuterią czy też doborem filmu w serwisie VOD.

Błąd.

Poprawną odpowiedzią jest branża porno.

Jest to jedna z najlepiej rozwijających się gałęzi gospodarki. Jest łasa na nowe rozwiązania technologiczne. Stawiam stówę, że branża porno będzie miała decydujące znaczenie w rozwoju AR i VR. Nie super technologie dla biznesu, nie rozrywka dla całej rodziny. Urządzenia VR i AR zrobią się tanie jak barszcz jak tylko branża porno się nimi zainteresuje, a fani ręcznych robótek zaczną szturmować sklepy z elektroniką.

Oczywiście nie mówię o branży jako całości. Raczej jednemu wycinkowi. Konkretnie mam na myśli ten blog. Spokojnie. Po wejściu zobaczycie tylko wykresy, uciech innej natury trzeba szukać na stronie głównej.

Dobra, już zaczynam się tłumaczyć.

To co Pornhub pokazuje na swoim blogu to zaledwie wycinek ich pracy. Takie coś na pokaz. Popatrzcie co mamy, tak się bawimy jak mamy chwilę czasu.

W zasadzie to co pokazują dostawcy filmów dla dorosłych w swoich analizach to w większości dane dostępne dla przeciętnego człowieka, który przeszedł przez tutoriale Googla. Trochę ruchu, jakieś ciasteczka, w zasadzie pierdoły.

To zróbmy analizę przypadku. Weźmy na tapetę francuzów i to jak oni korzystają z serwisu dla dorosłych.

Raport znajduje się tutaj.

Na dzień dobry dostajemy informację, że względem całego świata, we Francji korzysta się chętniej z komputerów vs urządzenia mobilne. Schodząc nieco głębiej, okazuje się, że tą różnicę robią głównie osoby po 45-tym roku życia, pewnie jakieś przyzwyczajenie. Mamy też ciekawy odchył w grupie 25-34, która o wiele częściej korzysta z komórek.

Co nam dają takie informacje. Hmmm. Francuz + komputer =  leki na potencję? Wiem, bezczelny jestem.  To może bardziej pro kliencko. Treści będą podstawiać się lepiej. Po prostu. Na razie odpuszczam marketing.

Co dalej. Na komputerach mamy sporo więcej wykorzystania Safari. Pomijam celowo resztę. Safari oznacza MACa, a to w domyśle raczej kogoś kto może odrobinę więcej wydać od przeciętnego człowieka. Dodajmy do tego to co wcześnie.

Komputerek + Safari + Francuz = droższe leki na potencję lub droższy Wideo Chat.

Dane o przeglądarkach na urządzeniach mobilnych są średnio interesujące. Może oprócz tego, że we Francji nieźle się sprzedaje Samsung i ludzie korzystają z domyślnej przeglądarki.

Potem okazuje się, że może się ciutkę mylę. Jednak to Jabłko nie jest aż tak popularne. Na Windowsach sobie instalują.

Zapisać i zapamiętać. Komputer + Windows + Safari + Francja = średnio zamożny pozer. Może lewe roleksy?

Co ciekawe, dalej mamy systemy na komórkach. O wiele więcej jest wykorzystania softu Blackberry i Windowsa. Dalej mało ale jednak więcej niż na świecie. Mówi to w zasadzie niewiele. Microsoftowi udało się zaprzepaścić szansę, a Blackberry jak działał, tak działa.

Przez grzeczność pominę sekcję związaną z konsolami. Nie chcę być niemiły do Microsoftu. Dobra, zaraz do niej wrócę.

Potem mamy TOPki wyszukiwani vs system na urządzeniu mobilnym.

Poskładajmy to jednak w kupę. Francuz jest raczej przywiązany i nie lubi zmian. Korzysta z PS Vita(patrz konsole przenośce), bo działa i będzie korzystał do oglądania filmów w zaciszu toalety. Używa też komputera(patrz wiek vs sprzęt), bo zawsze tak to robił i w sumie po co zmieniać? No właśnie, bo to co dobre to Francuskie (patrz TOP kategoria), chciałby oczywiście, żeby trafiło mu się coś ekstra i mógł zaznać luksusu (druga kategoria oraz ściema Windows + Safari), a i jak już facet się dorobi telefonu Jabłka to oddaje kobiecie (patrz TOP różnica procentowa Apple).

Przeleciałem przez dane na szybko. Nie rozczulałem się nad mini za bardzo. Może wyciągnąłem wnioski będące daleko idącym idiotyzmem i powinienem to odszczekać? Jak mi kiedyś Pornhub da dostęp to powiem co i jak 😉

Chciałbym, żebyś drogi czytelniku zapamiętał z tej lektury jedną ważną rzecz. Dane analityczne mogą być ładnym wykresem. Spoko. Nawet jak przeczytałeś Anal to może coś tam się uśmieszek pokazał.

Najważniejsze jest to, że te dane to po prostu złotówki. Zbierasz, oglądasz i decydujesz. Taki mikroprofil to kończy robotę po średnio 10 minutach, to wrzucamy mu takie propozycje, żeby zobaczył minimum 1 reklamę. Reklama będzie taka, bo dla tego typu konwertuje się najlepiej cośtam.

Tak, tak. Branża porno jest trochę wstydliwa. Tylko, że ona zarabia kasę. Robi to coraz lepiej. A ty co? Dalej Excel?

 

Narysuj taki ładny wykres

Zacznę od narzekania. Jest parę powodów, dzięki którym teraz  żyje się gorzej. Mamy postępujące zanieczyszczenie środowiska, względną wolność, która wyzwala w nas instynkty autodestrukcyjne (tak, o Was mówię, Wy krzyczący o truciu szczepionkami). Mamy też masową inwigilację. Trzeba nazywać rzeczy po imieniu. To co oferuje Big Data to masowa inwigilacja. Po prostu.

Dla osób nie zaznajomionych z tematem, wyjaśnię w kilku słowach.

Każdy ruch w sieci wykonywany za pośrednictwem dowolnego urządzenia jest, gdzieś przetrzymywany. To są te słynne Ciasteczka. To co bezwiednie odklikujemy na każdej stronie. To m.in. dzięki nim za korzystanie z sieci nie przychodzą nam co miesiąc rachunki. To one umożliwiają twórcom witryn zarabianie na swojej twórczości. Może nie bezpośrednio ale jest to kawałek układanki.

Big Data natomiast pozwala na składowanie tych wszystkich logów, każdego kliknięcia, zatrzymania wzroku na zdjęciu słodkiego kotka.

Google Analitics to wierzchołek góry lodowej.

Nie jestem poważnym człowiekiem. Znaczy się, biznesowo tak. Zróbmy projekt, zróbmy analitykę, postawmy RPA. Tak, tu jestem poważny. Za to w życiu? Sorry. Nie można na 100% każdego dnia udawać, że głupie dowcipy mnie nie śmieszą. Bez luźnego podejścia i kolokwialnego języka już dawno bym zwariował. Gdybyśmy kiedyś współpracowali drogi czytelniku, to na pewno zrobimy zajebisty projekt ale użyję dziesiątki razy homeryckich porównań do „wywalania się na ryj”. Przyzwyczaj się.

Wracając do meritum.

Pornhub!

Kojarzycie? Jaja sobie robicie? Nie udawajcie. Każdy z nas ma grzeszki.

Mnie pornhub oprócz czysto hedonistycznych potrzeb interesuje też od strony technicznej. Nie żartuję. Branża porno jest motorem napędowym technologii. Wiecie dlaczego? Bo tam jest kasa. Tam się zarabia pieniądze. Tak, wiem. Część czytających teraz puka się w głowę. My mamy poważny biznes, a tam są tylko gołe dupy. Może i tak. Ale. Pornhub wprowadza nowości szybciej od YouTube, a platformy służą w gruncie rzeczy do tego samego, oglądania filmów. Post factum YouTube podpatruje ficzery 😉

Pornhub ma też genialną sferę analityki. Nie żartuję.

Fałszywe wiadomości o rakietach lecących na Hawaje: https://www.pornhub.com/insights/hawaii-alert

Rozdanie Oskarów: https://www.pornhub.com/insights/2018-academy-awards

Padły serwery Fortnite: https://www.pornhub.com/insights/fortnite-server-outage

To tylko kawałek. Nie chciałem zachwalać strony oferującej zróżnicowaną pornografię ale robicie świetną robotę. Dobra. Nie interesuje mnie w tym momencie zdanie zadufanych w sobie managerów i specjalistów od robienia slajdów. To co robi Porrhub to wzór. Trzeba się od nich uczyć, bo uczy się od lepszych od siebie. Zawsze.

Wracając do meritum. Za chwilę zaczynam się bawić analityką i wizualizacją dużych zbiorów danych. Wiem, wiem, podchodzę do tematu trywialnie. Będzie to spora część mojej pracy. Powinienem być poważny, jednak samą powagą nikt nie zaszedł daleko. Praca powinna być interesująca, inspirująca. Pracę powinno się kochać lub ją zmienić.

Dzisiaj robię pierwsze podejście do narzędzi. Pooglądam co to rynek udostępnia. Co można zrobić. Jakie są ograniczniki.

To jest ważny etap i planuję podzielić się spostrzeżeniami. Na całe szczęście większość firm udostępnia trial. Są też narzędzia darmowe, z tymi akurat problemu nie ma. Wystarczy podać e-mail i działa.

Pierwszy na warsztat idzie Power BI ze stajni Microsoft. Ściągamy wersję pulpitową za darmo i możemy próbować się uczyć. Pierwsze spostrzeżenia już mam. W sieci jest dużo kursów i materiałów edukacyjnych. Microsoft dba o swoje owieczki i pokazuje krok po kroku co i jak. Fajnie. Jeśli narzędzie kosztuje w wersji korporacyjnej kilka dolarów to miłym gestem jest bezpłatne wsparcie i szkolenia.

Oczywiście mam też wątpliwości związane z moimi doświadczeniami z Sharepoint. Nie każdy element jest dobrze wspierany. Trzeba się naszukać. Momentami czułem się jak bym uczył się narzędzia OpenSource bo lądowałem z pytaniami na stack overflow. Zobaczymy. Opowiem.

Potem kolej na Pentaho i Microstrategy. Jeszcze nie wiem czy to będzie taka kolejność. Może do głowy przyjdzie mi coś innego?

Czas kończyć. Zacząłem od tego, że tak źle mi ale jest Pornhub, który doprowadził mnie do Microsoftu. Całkiem ciekawie jak na pierwszy post.