Analityka dla wszystkich

Published by Redakcja CIONET Polska
September 20, 2022 @ 10:00 AM

"Wyjście z analityką" do całej organizacji okazuje się w praktyce poważnym wyzwaniem dla osób zarządzających zespołami analitycznymi w firmach. Efektywne korzystanie z dostępnych zasobów informacyjnych i narzędzi analitycznych nie jest sprawą oczywistą – nawet pomimo ogólnej świadomości znaczenia dostępu do danych dla poprawy wydajności pracowników.

Za nami druga sesja strategiczna programu Data Excellence. To całoroczny program dla przedstawicieli świata technologii, analityki i biznesu, umożliwiający im wymianę wiedzy i doświadczeń w obszarach związanych z gromadzeniem i przetwarzaniem danych. Organizowanym raz na kwartał sesjom strategicznym towarzyszą warsztaty online – spotkania „inspiracyjno-praktyczne” o charakterze narzędziowo-procesowym. Partnerami programu są firmy Deloitte i IBM.

O ile na spotkaniu czerwcowym, inaugurującym projekt, rozmawialiśmy o strategii rozwoju narzędziach Business Intelligence i sztucznej inteligencji w organizacjach, to tematyka drugiej sesji, z 7 września, krążyła już wokół efektywnego wykorzystania możliwości analitycznych. Warto dodać, że w ciągu zaledwie trzech miesięcy dzielących pierwszą i drugą sesję strategiczną wokół programu zbudowaliśmy 180-osobową społeczność specjalistów technologii i biznesu, reprezentujących ponad 100 firm.

Jak zwykle na wydarzeniach organizowanych przez CIONET Polska nie zabrakło ciekawych prezentacji. Tym razem wystąpili m.in. Paweł Żurek, dyrektor Departamentu Utrzymania Aplikacji i Infrastruktury Biura Informacji Kredytowej, który przedstawił uczestnikom spotkania charakterystykę projektu BIK Open API. To będący obecnie w fazie pilotażu program integracji danych z różnych źródeł. „W ramach licznych doświadczeń w BIK jesteśmy przekonani, że wymiana i współdzielenie danych jest kluczem do nadania im nowej wartości. W ramach projektu BIK Open API szukaliśmy wspólnego mianownika dla naszych danych i danych partnerów – postawiliśmy na geografię” – komentował.


Paweł Żurek, BIK
Nasze zaproszenie przyjął także Jan Kosmala, Data Engineering Manager, OLX Group, którego prelekcja – zatytułowana „Szukanie drogi do doskonałego (użytecznego) systemu BI” – poświęcona była wyzwaniom towarzyszącym przenoszeniu procesów analitycznych z poziomu organizacji globalnej na poziom rynków lokalnych.

Grono prelegentów drugiej sesji Data Excellence uzupełnili Karim Sylla, dyrektor Analityki i Data Science w Żabka Polska i Milena Kozioł-Rostkowska, zastępczyni dyrektora Departamentu Analiz i Strategii w Ministerstwie Zdrowia.

Społeczność analityków
Jak wskazywał Karim Sylla, kompetencje analityczne w firmach mogą być organizowane na jeden z trzech sposobów. Pierwszym jest decentralizacja analityki, czyli osadzenie specjalistów ds. danych w poszczególnych zespołach czy departamentach. Każdy dział, który ma „swoich” analityków, gromadzi i poszerza w ten sposób wiedzę w obszarze analizy i może bardziej elastycznie podchodzić do zadań z nią związanych. Z drugiej strony, z punktu widzenia całej organizacji prowadzi to do silosowości, powielania kompetencji, braku standaryzacji obliczeń i może skutkować zróżnicowanym poziomem wiedzy i kompetencji.

W wariancie przeciwnym, scentralizowanym – gdy kompetencje analityczne skupione są w jednym miejscu (zespole) świadczącym usługi dla całej firmy – mamy pewność jednolitych standardów, a struktura i odpowiedzialność są proste i czytelne. Gorzej z elastycznością i responsywnością takiego zespołu – klienci wewnętrzni muszą liczyć się z ryzykiem kolejkowania zadań.

Najczęściej spotykany jest model hybrydowy (na który zdecydowano się też w Żabce). Jest częściowo zdecentralizowany, a za analitykę odpowiada dział centralny w kooperacji z jednostkami rozmieszczonymi w poszczególnych działach. Takie podejście łączy korzyści wynikające z obu wcześniej wymienionych modeli, jednocześnie minimalizując lub całkowicie eliminując wady (jest nią co najwyżej macierzowa struktura zarządzania oraz konieczność zagwarantowania płynnej komunikacji pomiędzy zespołem centralnym oraz rozproszonymi zespołami analitycznymi).

Karim Sylla, Żabka Polska

W Żabce zespół centralny, czyli Departament Analityki i Data Science w Żabce, odpowiada za trzy obszary operacyjne: BI Development (rozwój raportowania w oparciu o nowoczesne rozwiązania raportowe), Insight Analytics (przygotowanie rekomendacji, z wizualizacja danych i prezentacje) oraz Data Science (prognozy, uczenie maszynowe jako wsparcie procesów).

Zespół centralny powinien wyznaczać strategie, dbać o innowacyjność, by wszyscy podążali w tym samym tempie, jeżeli chodzi o innowacyjność, jakość produktów analitycznych – podkreśla Karim Sylla.

Z kolei rozproszone zespoły analityczne, funkcjonujące w poszczególnych działach (np. handlowym, sprzedaży, logistyki czy rozwoju/ekspansji) zajmują się codzienną pracą z biznesem i odpowiadają na pytania menedżerów danych obszarów, monitorują własne wskaźniki i dbają, by procesy w tych obszarach były realizowane ze wsparciem analityki.

Wszyscy współpracujemy, by użytkownicy otrzymywali informacje na czas, kierujemy, jak efektywnie spojrzeć na dane, dostarczamy też bardziej zaawansowane rozwiązania, takie jak modele prognostyczne czy machine-learningowe –mówi Sylla.

Budowa firmowej społeczności analityków odbywa się w drodze różnych inicjatyw o różnym zasięgu. Klasycznymi przykładami są „Forum analityków” i „Drzwi otwarte”. „Najczęściej dwa razy w roku, wiosną i jesienią, robimy dzień analityka – całodniowe spotkanie poświęcone integracji, wymianie dobrych praktyk i informacji, co się dzieje w poszczególnych zespołach analitycznych” – wyjaśnia przedstawiciel Żabka Polska. Spotkania te przeznaczone są również dla gości z zewnątrz i obfitują w prelekcje na temat innowacji z obszaru analityki. „Drzwi otwarte” to wydarzenia częstsze, skierowane szczególnie dla nowych lub początkujących pracowników, w trakcie których można poszerzyć wiedzę o narzędziach i procesach przetwarzania danych.

Na uwagę zasługują dwa inne programy: Akademia Power BI i Macierz kompetencji. Pierwszy z wymienionych to projekt edukacyjny, udostępniający dedykowaną ścieżkę rozwoju kompetencji (podobny projekt funkcjonuje też w obszarze programowania w języku Python). Drugi to, jak opisuje Karim Sylla, próba usystematyzowania wiedzy z zakresu analityki: "Zdefiniowaliśmy listę kompetencji, na których nam najbardziej zależy, skupioną na narzędziach i technologii. Będziemy zachęcali analityków do zrobienia oceny, na jakim poziomie każdy z nich jest, a menedżerów – by określali poziom oczekiwanych kompetencji na danym stanowisku."

Dla zespołu centralnego będzie to jasna informacja, gdzie brakuje kompetencji w stosunku do oczekiwań poszczególnych menedżerów i pozwoli lepiej zorganizować programy szkoleniowe. Program ma ruszyć jeszcze w tym roku.

Kultura pracy z danymi
O tym, jak kultywuje się organizację pracy analityków w administracji publicznej opowiadała – na przykładzie Departamentu Analiz i Strategii Ministerstwa Zdrowia – Milena Kozioł-Rostkowska, wicedyrektorka tej jednostki.

Departament to interdyscyplinarny zespół fachowców z dziedzin informatycznych (programiści, specjaliści baz danych) ale również ekonomistów, analityków oraz, oczywiście, lekarzy. W strukturze departamentu funkcjonuje zespół ds. systemów i utrzymania danych, odpowiedzialny za pozyskiwanie i udostępnianie danych, zespół analiz i raportów oraz dział prognoz (prognozowanie i modelowanie matematyczne). Wyniki prac tych jednostek "konsumują" zespoły ds. strategii oraz oceny inwestycji i zasobów.

Jako Ministerstwo Zdrowia posiadamy dużo danych, ale też dużo się od nas wymaga. Wiele osób z różnych poziomów zadaje nam mnóstwo pytań natury analitycznej, zaczynając od pana ministra, instytucje międzynarodowe, wojewodów i jednostki samorządu terytorialnego, dyrektorów szpitali po pacjentów. Potrzeb jest bardzo wiele my musimy na nie odpowiadać – podkreśla Kozioł-Rostkowska.

W tym celu departament opracowuje i rozwija szereg produktów i procesów, zarówno ma użytek wewnętrzny, jak i zewnętrzny.

Flagowym produktem departamentu są mapy potrzeb zdrowotnych – dostępne publicznie narzędzia analityczne, których przeznaczeniem jest wsparcie decyzji zarządczych, w tym planowania inwestycji i wydatków budżetowych w ochronie zdrowia na podstawie analizy trendów, aktualnie dostępnej infrastruktury oraz prognozowanych potrzeb. Jednocześnie aplikacje stanowią spójne źródło odpowiedzi na pytania analityczne wielu interesariuszy.

"Mapy potrzeb zdrowotnych przeszły długą drogę: kiedyś w formie opasłych dokumentów, z masą wykresów, tabelek i setkami tysięcy stron. Dziś to przyjazne, czytelne i regularnie aktualizowane aplikacje. Ze względu na szeroki wachlarz wykorzystywanych danych wyzwaniem pozostaje odpowiednia organizacja merytoryczna i techniczna procesu tworzenia, utrzymania i aktualizacji aplikacji. Organizacja merytoryczna ma rozproszoną formułę: każdej aplikacji przypisany jest właściciel biznesowy i analityczny w postaci jednego mikrozespołu. Proces techniczny jest centralny i wystandaryzowany dla wszystkich aplikacji" – wyjaśnia przedstawicielka resortu.

Milena Kozioł-Rostkowska

Ponadto departament podejmuje temat upowszechniania i upraszczania narzędzi, m.in. tworzy poradniki i definicje na poziomie aplikacji, by użytkownicy mogli jak najwięcej dowiedzieć się samodzielnie. Departament ma też na koncie działania edukacyjne, skierowane zarówno na zewnątrz (ogólnopolski cykl szkoleń dla szerokiego grona interesariuszy) jak i o charakterze wewnętrznym (szkolenia e-learningowe dla nowych pracowników Ministerstwa).

Cztery zasady pracy z danymi
Jak wskazywał w swoim wystąpieniu Jan Kosmala z OLX, głównym problemem, z którym borykają się globalne firmy w kontekście pracy analityki danych, jest niedostateczna komunikacja między działami globalnymi i lokalnymi. Powoduje to zmniejszenie elastyczności, niezbędnej przy ciągłym zmieniającym się rynku.

Globalna firma zawsze dąży do centralizacji systemów, aby ograniczyć koszty i jak najbardziej zunifikować posiadane dane. Niestety powoduje to zmniejszenie tempa rozwoju systemu BI, co dla lokalnych biznesów jest zabójcze, a w związku z tym lokalne zespoły zaczynają działać na własną rękę – tłumaczył Kosmala.

Na podstawie lat doświadczeń potwierdza on najważniejsze, a zarazem najczęściej zapominane w dużych firmach podstawy.

Po pierwsze, proponowany system musi być przetestowany na realnych przykładach, przy czym lepiej jest poświęcić czas na fazę testów. Brak dokładnych, przeprowadzonych odpowiednio wcześnie, analiz grozi ryzykiem wysokich kosztów w czasie, pieniądzach i, nierzadko, motywacji pracowników.

Po drugie, potrzeby klientów są najważniejsze – użytkownikami systemów BI są analitycy, „produktowcy” czy zespoły zarządzające. Pracując nad danymi należy zebrać wymagania i przedyskutować je z zainteresowanymi. Inżynierowie nigdy nie będą wiedzieli lepiej, czego potrzebują analitycy. Kontakt z użytkownikami musi być ciągły, a każda zmiana potwierdzona.

Jan Kosmala, OLX
Kolejna kwestia, to szkolenia. Jeśli firma zdecyduje się, aby użyć danego systemu, z którego mają później korzystać analitycy, musi zapewnić im odpowiednie szkolenia. Bez tego nawet najlepszy system nie będzie używany w 100%, co oznacza, że środki zostały wydane na darmo.

Wreszcie, dane powinny być uporządkowane już u źródła – każdy producent danych powinien myśleć nie tylko o tym, jak to będzie działać w systemie dla ostatecznego klienta, ale również jakie dane będą analizowane. Do tego dąży podejście Data Mesh, aby przydatność danych do analizy i wyciągania wniosków była zabezpieczona już w momencie udostępniania systemu, w którym są produkowane.

--

Trzecia sesja strategiczna programu Data Excellence odbędzie 14 grudnia. Nieco wcześniej, bo w dniach 22-24 listopada, zapraszany na konferencję Data Connect, w całości związaną z zagadnieniami analityki danych.

Więcej informacji o programie Data Excellence można znaleźć na stronie www.cionet.com/dataexcellence.

No Comments Yet

Let us know what you think

You May Also Like

These Stories on CIONET Poland

Subscribe by Email