Przyszłość analityki w chmurze

Published by Redakcja CIONET Polska
August 23, 2023 @ 3:22 PM

Tematem przewodnim #5 sesji strategicznej Data Excellence były możliwości wykorzystania rozwiązań chmurowych, w celu doskonalenia procesów analitycznych w firmach. Droga do chmury, w tym do zmigrowania do niej procesów analitycznych rzadko bywa prosta. Tym ważniejsze jest poznanie doświadczeń firm, które przeprowadziły lub są w trakcie tego typu projektów.

Gospodarzem spotkania społeczności Data Excellence było Allegro i to ich wystąpienie otworzyło sesję. Bartłomiej Rymarski omówił migrację przetwarzań analitycznych do chmury, skupiając się na optymalizacji komponentów chmurowych. Pokazał, jak przeniesienie przetwarzań analitycznych może przynieść korzyści użytkownikom, nie wpływając negatywnie na operacje biznesowe.

Jarosław Bartosik z Polkomtelu opisał migrację środowisk analitycznych opartą na strategii lift & shift, która odbyła się przez weekend, nie wpływając na użytkowników i aplikacje. Dzięki migracji, Polkomtel zyskał nowe możliwości skalowania przetwarzań i rozwijania środowisk analitycznych.

Krzysztof Osiński z DTiQ Poland omówił rolę analityki w chmurze w dostarczaniu globalnych usług wykrywania nadużyć, działających w ponad 3 tys. lokalizacji.

Z kolei Tadeusz Skrzypczak z Ringier Axel Springer Polska przedstawił wykorzystanie chmury do automatyzacji testów A/B, które pozwalają na optymalizację strategii biznesowych poprzez testowanie różnych podejść do prezentowania treści i reklam.


Z dinozaura do jednorożca: Jak przeprowadzić migrację platformy danych do chmury?

Podczas swojego wystąpienia, Bartłomiej Rymarski z Allegro, omówił proces i wyzwania związane z migracją platformy danych firmy do chmury. Jego prezentacja skupiła się na ważnych aspektach takich jak skalowalność, integracja narzędzi, ryzyko vendor lock-in, zasoby i koszty, oraz kluczowe role w organizacji podczas procesu migracji.

52909179485_187d0f967e_c

Bartłomiej zaczął od opisu historii Allegro i rozwoju platformy danych firmy, począwszy od pierwszego klastra Hadoopa w 2012 roku. Mówił o wyzwaniach, z którymi firma zmagała się wraz z rozwojem, takich jak wzrost danych oraz rosnąca rola analizy danych w biznesie. 

Sam wzrost danych miał charakter wykładniczy. Istota pracy z danymi również rosła po stronie biznesu, więc ten nasz dinozaur cały czas rósł i rósł, ale nadal pozostawał dinozaurem – powiedział Bartłomiej.

Następnie przedstawił proces decyzyjny i przygotowania do migracji do chmury. Omówił kwestie takie jak analiza potrzeb technicznych, porównanie alternatyw, ocena ryzyka, budowanie poparcia w organizacji oraz wybór modelu migracji.

Bartłomiej skupił się na kluczowych rolach w organizacji podczas procesu migracji. Wskazał na zespół platformy, zespół dostawcy chmury, użytkowników, biznes i ambasadorów zmiany jako kluczowych graczy w tym procesie. Podkreślał również znaczenie sponsorów projektu na wyższych szczeblach organizacji, którzy mogą zapewnić wyższy  priorytet dla projektu migracji.

Jego prezentacja dostarczyła cennych wskazówek i praktycznych informacji na temat procesu migracji do chmury, a także podkreśliła ważność przemyślanej strategii i zaangażowania wszystkich kluczowych graczy w organizacji.

Jak przenieść do chmury 100 TB danych i się nie potknąć?

Jarosław Bartosik, Dyrektor Departamentu Business Intelligence w Polkomtel, szczegółowo omówił proces migracji korporacyjnej hurtowni danych do chmury. Projekt ten był pierwszym tak znaczącym przedsięwzięciem migracji krytycznej aplikacji biznesowej do chmury i jednocześnie kluczowym elementem cyfrowej transformacji firmy.

Podczas swojego wystąpienia Jarek zwrócił uwagę na skomplikowanie procesu migracji, który był realizowany na nieznanym dla organizacji terytorium. Projekt wymagał nie tylko przeprowadzenia migracji dużej ilości danych, ale także realizacji w krótkim czasie, wynikającym z terminu końca życia infrastruktury on-premise. Początkowo rozważano modernizację tej infrastruktury, ale dyskusje skierowały firmę ku decyzji o migracji do chmury. Po jej podjęciu, zespół projektowy miał sześć miesięcy na przeprowadzenie całego projektu.

52908941724_3d0f018a4e_c

Kluczowymi założeniami projektu były transparentność dla użytkowników i bezpieczeństwo danych oraz wykorzystanie benefitów płynących z nauki w trakcie realizacji projektu. Migracja ta nie tylko umożliwiła zdobycie nowych umiejętności i otworzyła drzwi do nowych projektów analitycznych, ale również przyniosła konkretne korzyści operacyjne, takie jak skrócenie czasu wyliczania grup docelowych dla kampanii czy wykonania kopii zapasowych.

Dla nas jest to kamień milowy na drodze migracyjnej do chmury, czy w ogóle na całej ścieżce cyfrowej transformacji. Projekt się udał w założonym czasie i bez negatywnych skutków dla biznesu - powiedział Jarek

Podsumowując, Jarek ukazał projekt migracji jako kluczowy element cyfrowej transformacji firmy, podkreślając, że pomimo początkowych trudności, odpowiednie przygotowanie i współpraca mogą prowadzić do znaczących korzyści. Jego wystąpienie jest dowodem na to, że przy odpowiednim zaplanowaniu i zaangażowaniu, nawet najbardziej złożona migracja do chmury jest możliwa.

Chmurowy Detektor Nadużyć: Innowacyjne podejście DTiQ w wykrywaniu oszustw

W czasie ostatniej sesji Data Excellence Krzysztof Osiński z firmy DTiQ przedstawił niecodzienny projekt – "Chmurowy Detektor Nadużyć". Firma DTiQ, znana głównie w USA, skupia się na ograniczaniu strat w biznesie, a ich specjalność to wykrywanie nadużyć.

Jednym z głównych wyzwań, przed którym stanęła firma, była skuteczność audytów. DTiQ korzysta z danych z kas oraz z materiałów wideo, aby identyfikować potencjalne nadużycia w działalności klientów. Kluczowe stało się stworzenie systemu, który poprawiłby efektywność audytorów, umożliwiając im szybsze identyfikowanie podejrzanych transakcji.

52909246053_558747680a_c

Tradycyjne metody filtrowania danych, mimo że skuteczne, okazały się mało wydajne w kontekście rosnącej ilości danych do analizy. To skłoniło Krzysztofa i jego zespół do zastosowania algorytmów uczenia maszynowego. Jak sam Krzysztof stwierdził: 

Technologie bazujące na danych stają się kluczem do skuteczniejszego wykrywania nieprawidłowości. Algorytmy uczenia maszynowego pozwalają na analizę w skali, jakiej człowiek by nie był w stanie przeprowadzić.

By sprostać temu wyzwaniu, wykorzystano milion transakcji prawidłowych i 60 tysięcy transakcji podejrzanych do treningu modelu. Kluczem do sukcesu projektu była chmura. Firma przeniosła się do chmury w 2019 roku i zaczęła eksplorować różne usługi chmurowe, co pozwoliło na lepszą skalowalność i efektywność projektu.

Podsumowując, DTiQ przedstawia nowoczesne podejście do analizy danych, łącząc technologie chmurowe z uczeniem maszynowym. Innowacje takie jak te pokazują, jak technologia może być wykorzystywana do rozwiązywania konkretnych problemów biznesowych.

Automatyzacja testów A/B w analityce internetowej – klucz do efektywnej analizy danych

Automatyzacja procesów analitycznych i testów A/B w sieci stała się priorytetem dla wielu firm, które chcą efektywnie korzystać z danych, by podejmować świadome decyzje biznesowe. Tadeusz Skrzypczak z firmy Ringier Axel Springer Polska podzielił się doświadczeniami w tej dziedzinie podczas swojego wystąpienia.

Ringier Axel Springer Polska to firmą mediowo-technologiczną docierająca swoimi markami do ponad 23 milionów Polaków miesięcznie. Zarządza imponującą bazą danych, w której są setki terabajtów danych. Te informacje trzeba umiejętnie przetłumaczyć na wnioski biznesowe, co nie jest łatwym zadaniem ze względu na ich objętość i mnogość przecięć, perspektyw.


52908791911_56a1191018_c

Tadeusz podkreślił, że w erze dużych danych, kluczem jest efektywne przetwarzanie i analiza informacji. Zwrócił uwagę na testy A/B, które muszą być dokładnie przemyślane i przeprowadzone z użyciem narzędzi zapewniających dokładność wyników. 

Jeżeli mamy test A/B i testujemy jakąś zmianę, to zapewne w przyszłości chcielibyśmy przeprowadzać bardzo dużo takich testów... W sposób ciągły musimy testować, sprawdzać i wiedzieć, czy te zmiany realnie wpływają na nasz biznes – wskazała Tadeusz. 

Po zakończeniu testu A/B, wszystkie informacje są dokumentowane w dedykowanym narzędziu. Dzięki temu firma ma pełną kontrolę nad procesem testowania oraz dostęp do historii testów. Tadeusz zakończył swoje wystąpienie podkreślając, że dobrze zaplanowany proces pozwala prowadzić wiele eksperymentów równolegle, oszczędzając czas i zasoby.

W czasach, gdy dane stają się coraz bardziej wartościowe dla firm, wykorzystanie automatyzacji w analizie i testowaniu staje się nie tylko przydatne, ale wręcz niezbędne. Wiedza i doświadczenie Tadeusza Skrzypczaka dostarcza wartościowych wskazówek dla innych firm, które chcą wykorzystać moc danych w podejmowaniu decyzji biznesowych.


Data Excellence – o programie

Data Excellence to całoroczny program skierowany do przedstawicieli świata technologii, analityki i biznesu, dotykający szerokiego spektrum zagadnień związanych z gromadzeniem i przetwarzaniem danych. Udział w programie umożliwia wymianę wiedzy i doświadczeń – w drodze uczestnictwa w organizowanych raz na kwartał sesjach strategicznych oraz warsztatach online, spotkaniach „inspiracyjno-praktycznych”, poświęconych narzędziom i procesom.

52908791206_f89cc982c4_c

To było już piąte spotkanie ciągle rozwijającej się społeczności – jest nas już ponad 260 osób! Program został zainaugurowany w czerwcu 2022 r. Partnerami programu są firmy AWS, Hewlett Packard Enterprise i IBM.

Najbliższa, czwarta sesja strategiczna Data Excellence odbędzie się 28 września 2023 r. Rejestracja na spotkanie już ruszyła!

Więcej informacji na stronie programu: cionet.com/dataexcellence.

*Powyższa relacja powstała ze wykorzystaniem modeli AI, które najpierw zostały użyte do transkrypcji nagrania do tekstu, a ta następnie ze wsparciem GPT4 została streszczona do krótkiego artykułu. Następnie tekst został opracowany i zredagowany.

No Comments Yet

Let us know what you think

You May Also Like

These Stories on CIONET Poland

Subscribe by Email