3... 2... 1... Data Excellence!

Published by Ludwik Krakowiak
June 21, 2022 @ 2:26 PM

Za nami pierwsza sesja strategiczna nowego programu CIONET – Data Excellence. W nadchodzących miesiącach chcemy zbudować platformę do wymiany doświadczeń o zaawansowanej analityce danych. Dzięki Data Excellence liderzy ze świata technologii, analityki i biznesu będą mogli wymieniać się wiedzą w takich obszarach jak Data Science & Analytics, Machine Learning, Big Data, AI, Data Governance, Data Warehouse i Business Intelligence.

Data Excellence to projekt całoroczny, w ramach którego przewidujemy łącznie cztery sesje strategiczne (raz na kwartał), skoncentrowane wokół różnych zagadnień dotyczących analityki danych, przetwarzania danych i zarządzania nimi.

Dodatkowym elementem programu będą warsztaty – spotkania „inspiracyjno-praktyczne” online, poświęcone zagadnieniom narzędziowo-procesowym, które umożliwią lepsze wzajemne zrozumienie wyzwań i potrzeb, dzielenie się dobrymi praktykami oraz wypracowanie wspólnych rekomendacji służących społeczności CIONET.

Partnerami programu są firmy Deloitte i Tibco.

Data Excellence – zaczynamy od strategii
Architektura systemów analitycznych w wielu organizacjach wciąż bazuje na klasycznych hurtowniach danych i systemach raportowych. W obliczu dużej zmienności potrzeb biznesowych i postępującej ewolucji technologii i rozwiązań analitycznych może to jednak okazać się niewystarczające do pełnego wykorzystania potencjału drzemiącego w gromadzonych przez firmę danych.

Dlatego hasłem przewodnim pierwszej sesji strategicznej Data Excellence, jaka odbyła się w czerwcu br., była „Roadmapa rozwoju BI/AI”. Zagadnienie to „wzięliśmy na warsztat” w pierwszej kolejności, gdyż uznaliśmy, że bez odpowiednio przygotowanej mapy drogowej nie da się efektywnie wprowadzać zmian technologicznych i biznesowych, opartych na nowych modelach wykorzystania danych.

Do przedstawienia swoich doświadczeń w zakresie tworzenia i realizacji takiej strategii zaprosiliśmy gości – ekspertów z firm CCC, Ringier Axel Springer Polska, Citi Handlowy i Polkomtel.

Retail danymi stoi
O tym, jak planować rozwój analityki w przedsiębiorstwie, opowiedzieli Krystian Hatała, Head of Data and Analytics Platform oraz Wojciech Górniak, Head of Data & AI Hub w CCC. W firmie o tej wielkości i skali obrotów – ok. 1000 sklepów stacjonarnych, 30 mln unikatowych, zidentyfikowanych klientów i 7,5 mld zł przychodów ze sprzedaży – cała roadmapa zaczyna się od biznesu. I to biznes, jak podkreślał Krystian Hatała, jest beneficjentem tego, co wymyślają i dostarczają specjaliści ds. analityki.

ccc_3

Strategia grupy CCC w kontekście analityki danych dotyka takich obszarów, jak personalizacja i lojalizacja klientów, optymalizacja działań i wydatków marketingu, dynamiczne zarządzanie cenami, optymalizacja przecen i promocji, prognozowanie popytu oraz optymalizacja zapasów magazynowych i zatowarowania.

Przykładowo, zastosowanie analityki jest w stanie tak wesprzeć poszczególne punkty sprzedaży w procesie zatowarowania i realizacji zamówień, by odpowiednia ilość produktów trafiła na sklepowe półki w odpowiednim czasie.

Zauważyliśmy, że dostarczenie wartości do jednej części biznesu również aktywizuje i wpływa pozytywnie na zmianę w zupełnie innych procesach. Dzięki temu jesteśmy w stanie zbudować świadomość biznesu, jakie mogą być benefity z analityki i to nie tylko w pojedynczych częściach organizacji – podkreślił Hatała.

Mapa drogowa analityki w CCC jest oparta na kilku filarach, z których najważniejsze to use-case’y, opłacalność biznesowa i prostota obsługi. Chodzi o to, by w organizacji panowała świadomość, do czego analityka może się przydać i kto może być interesariuszem takich projektów; wiedzieć, jaki jest zwrot z inwestycji w technologie analityczne, a na koniec – by umieć z nich korzystać.

 

W grupie CCC funkcjonuje rozwiązanie klasy Data Lake – zaawansowany system analityczny CRM, wspierający w realizacji efektywnej komunikacji z klientami. Firma pracuje nad uruchomieniem nowej platformy klasy Data Lakehouse. Skąd ten pomysł? „Patrzymy dziś szerzej niż kiedyś i chcemy działać w inny sposób – tak, by ludzie mogli patrzeć na procesy nie tylko przez pryzmat swoich systemów” – wyjaśnił Wojciech Górniak. Nowe rozwiązanie charakteryzuje się możliwością analityki w czasie rzeczywistym.

 

Internauta – użytkownik specyficzny

Firmy z branży mediów mierzą się z innymi wyzwaniami niż handel detaliczny. Radosław Kita, Head of Data Science w Ringier Axel Springer Polska, zwracał uwagę, że co prawda w bazach wydawnictwa zbieranych jest bardzo dużo danych technicznych (na przykład adresy IP), ale wśród nich jest stosunkowo mało informacji o użytkownikach. To sprawia, że trzeba je tłumaczyć je na informacje użyteczne biznesowo.

Problemem dla wydawców serwisów internetowych są też boty, odpowiedzialne za znaczącą część ruchu online oraz niska „kaloryczność” danych (o ile klient banku czy e-sklepu niejako zostawia w tych usługach swoją historię, to w mediach trzeba te dane dopiero wytworzyć). Inna trudność to pomiar efektywności.

Nie mamy jednej waluty dla całej organizacji. Co prawda, mierzymy efektywność poprzez czas, który użytkownicy spędzają na stronach ale na koniec dnia rynek ocenia nas pod względem zasięgu i unikatowych użytkowników, a część reklam będziemy sprzedawać na cookies, identyfikatory przeglądarek, bo tak działają ad-servery – tłumaczył Radosław Kita.

Do tego dochodzą wyzwania związane z budowaniem modeli analitycznych. Po pierwsze, modele te muszą błyskawicznie reagować na zachowania użytkowników – czasu na to jest tyle, ile upływa od kliknięcia linku do wyświetlenia strony. Po drugie, w związku z tzw. dryfem danych nie można stosować ciągle tych samych modeli (internauci w różnych porach dnia szukają w sieci innych informacji, nie wspominając już o sezonowości czy wydarzeniach specjalnych).

Obecnie podstawą rozwiązań analitycznych koncernu jest chmura obliczeniowa. Po dwuletniej migracji do Amazon Web Services w stosie technologicznym RASP funkcjonują takie narzędzia jak Amazon S3 – do składowania zasobów danych, Athena (analiza danych za pomocą SQL), EMR – przetwarzanie i analiza dużych zbiorów danych, TensorFlow i KubeFlow do uczenia maszynowego i TensorBoard do wizualizacji.

rasp

Takie elastyczne i skalowalne środowisko zapewnia możliwość używania dowolnych technik uczenia maszynowego, a podejście „infrastruktura jako kod” pozwala funkcjonować w oderwaniu od warstwy sprzętowej.

Referencyjna architektura danych
Wojciech Wronka, Data & Solution Architect w banku CITI, podkreślał znaczenie wdrożenia referencyjnej architektury danych w organizacji w efektywnym zarządzaniu danymi.

Architektura taka pozwala bowiem zapanować nad realizacją strategii (roadmapy) w sytuacji, gdy wpływ na obszar analityki mają z jednej strony procesy lub platformy centralne, tworzone przez dedykowany zespół BI lub inny, zajmujący się narzędziami analitycznymi; z drugiej – aplikacje biznesowe, ściśle powiązane z rozproszonymi procesami biznesowymi, realizowane w poszczególnych departamentach.

citi

Dziś możliwości samodzielnego opracowania niezbędnych biznesowi w danej chwili narzędzi są znacznie większe, co powoduje „pokusę”, by nie czekać na dostarczenie ich przez centralny zespół IT, zarządzający analityką – mówi Wojciech Wronka. Dzięki chmurze i infrastrukturze w formie kodu każdy użytkownik może zbudować sobie „efemeryczne” środowisko, istniejące tylko na czas działania danego procesu. W takiej sytuacji rośnie ryzyko rozproszenia elementów analityki.

Dołóżmy do tego działanie zwinne, brak jasnego podziału na projekt, implementację, wdrożenie – wszystko dzieje się w trybie ciągłym, a wdrożenia są iteracyjne. Jeżeli nie zbudujemy frameworka, by nad tym zapanować, mamy problem – przestrzega Wronka.

Referencyjna architektura danych musi być wykładnią w zakresie zgodności projektów ze strategią
i roadmapą, porządkować obszar architektury danych, wreszcie – organizować dobre wzorce i praktyki pozwalając na ich ponowne użycie. Aby spełniać te zadania, powinna zawierać kompendium wiedzy – instrukcje i wytyczne dla zespołów projektowych, standardy, szablony i wzorce projektowe.

Ułatwi to prowadzenie bieżący monitoring aktywności zespołów projektowych, wychwytywanie decyzji i sprawdzanie ich zgodności z architekturą. „Jeżeli chodzi do reiteracji roadmapy, nie robimy jej już na podstawie wiedzy eksperckiej ale na podstawie danych, zwłaszcza gdybyśmy chcieli w przyszłości pójść z roadmapą poza analitykę. Bez dobrego narzędzia sobie tego nie wyobrażam” – podsumował Wojciech Wronka.

polkomtel

„Im więcej użytkowników, obszarów biznesowych i funkcjonalności, tym trudniej bezpośrednio przekazywać wiedzę i zarządzać nią. Warstwa wiedzy o danych, katalog pojęć biznesowych, gdzie mamy referencje z tych pojęć do konkretnych obiektów w systemach analitycznych, są w dłuższej perspektywie konieczne” – przyznał z kolei Jarosław Bartosik, wicedyrektor departamentu Business Intelligence w Polkomtelu.

-- 
Druga sesja strategiczna Data Excellence zaplanowana jest na 7 września 2022 r., a jej tematem będą wyzwania związane z efektywnym stosowaniem analityki danych w organizacji. 

Więcej informacji o programie Data Excellence można znaleźć na stronie https://www.cionet.com/dataexcellence.

No Comments Yet

Let us know what you think

You May Also Like

These Stories on CIONET Poland

Subscribe by Email