We wrześniu 2024 r. program CIONET Data Excellence obchodził mały jubileusz – uczestnicy już po raz dziesiąty spotkali się na sesji strategicznej programu. Jak zwykle nie zabrakło inspirujących wystąpień – tym razem o praktycznej stronie wykorzystania danych w organizacji opowiadali przedstawiciele firm Allegro, ABB, Polpharma oraz Kancelarii Domański Zakrzewski Palinka, która była jednocześnie gospodarzem wydarzenia.
W trakcie 10. sesji strategicznej Data Excellence w roli prelegentów wystąpili Jakub Dudzic, Head of Group Advertising Analytics and Excellence w Allegro; Andrzej Kubicz, Process Automation business Data and Analytics Lead w ABB; Robert Pławiak, CDIO / CTO w Polpharma, a także dr Aleksandra Auleytner, partner i szef Praktyki IP&TMT i Marek Laskowski, dyrektor działu IT – oboje z kancelarii DZP.
Reklama dźwignią handlu
Jakub Dudzic opisywał, w jaki sposób w Allegro zaprzęgnięto procesy oparte na przetwarzaniu i analizie danych sprzedażowych do kompleksowej obsługi użytkowników biznesowych Allegro – czyli sprzedających i reklamujących się w nim przedsiębiorców. Tych danych Allegro ma pod dostatkiem i są to, co istotne, dane wysokiej jakości – pochodzą od realnych, zalogowanych użytkowników, odwiedzających Allegro z intencją zakupu. Ponadto Allegro w ramach swoich aktywności reklamowych obsługuje cały lejek marketingowy (tj. od świadomości marki po zakup produktu, a nawet lojalizację klienta) oferując trzy główne typy produktów reklamowych: oferty promowane i sponsorowane, reklamy graficzne oraz udział w Ads Network dla tych sprzedawców, którzy chcą reklamować się poza serwisem.
Efektem działań Allegro w obszarze Advertising Analytics są trzy narzędzia, reprezentujące podejście do tematu od strony data science, analityki danych i automatyzacji. W pierwszym wypadku mowa o Offer Scorer. To narzędzie zaprojektowane dla sprzedawców, którzy muszą podjąć strategiczną decyzję o tym, które ze swoich ofert reklamować. Ponieważ Allegro to ogromny rynek z 150 tysiącami sprzedawców i 450 milionami ofert, dlatego wybór najskuteczniejszych ofert (spośród średnio 3 tysięcy przypadających na statystycznego sprzedawcę) jest obszarem, w którym Allegro wykorzystuje modele ML do wspomagania sprzedających.
Metryką, która jest kluczowa dla sprzedających jest ROAS (Return on Advertising Spend) – zwrot z inwestycji reklamowej, czyli stosunek wartości towarów sprzedanych dzięki reklamie do tego, ile inwestujemy w reklamę. Stworzyliśmy model, który prognozuje zwrot z inwestycji reklamowej, konwersję, klikalność oraz sprzedaż danego produktu. W oparciu o dane historyczne, model pozwala eliminować oferty z niską szansą na sprzedaż, a następnie przewidywać, które przyniosą największy zwrot. – wyjaśniał Jakub Dudzic.
W toku prac nad modelem eliminowane były oferty, których szansa na sprzedaż została oceniona jako zerowa albo bliska zeru, następnie – w drodze regresji – prognozowano, które z nich wygenerują zwrot w postaci sprzedaży i jak wysoki. Model wspiera całą ścieżkę życia sprzedającego: od pozyskania, przez onboarding, aż po up-selling i cross-selling. Jeśli kampania reklamowa nie przynosi oczekiwanych rezultatów, model potrafi zidentyfikować oferty, które mogą poprawić jej efektywność.
Jeżeli chodzi o data analytics, Jakub Dudzic przywołał przykład narzędzia Pricing Simulator. Pomaga ono symulować wpływ zmian cen produktów reklamowych na szereg metryk produktowych – takich jak chociażby liczba wyświetleń i kliknięć w reklamę.
Chcieliśmy stworzyć symulator, który pozwoli nam ocenić wpływ wykorzystywania różnych dźwigni regulujących model aukcyjny na przychody z reklamy oraz churn reklamodawców – podkreśla przedstawiciel Allegro.
Mechanizm okazał się tak efektywny, że jest obecnie wykorzystywany w każdej interwencji związanej ze zmianą cen produktów reklamowych.
Trzecie z opisywanych przez Jakuba Dudzica narzędzi to AdsBot, robot automatyzujący powtarzalne zadania. Narzędzie, zbudowane z już dostępnych w Allegro technologii i komponentów, upraszcza i przyspiesza dostęp do danych oraz analiz. W ciągu zaledwie godziny interesariusze otrzymują raporty i prezentacje w formatach PowerPoint i Excel, co wcześniej zajmowało nawet do 10 dni roboczych. Dzięki temu dane są dostępne szybciej i dla większej liczby osób, które mogą je wykorzystać w codziennej pracy.
Automatyzacja przyniosła oszczędności odpowiadające pracy prawie 7 etatowych pracowników (co stanowi znaczący przyrost mocy przerobowych w skali parunastu osobowego zespołu analitycznego), a użycie AdsBota jest rozszerzane na kolejne jednostki biznesowe.
Wędka zamiast ryby
Andrzej Kubicz przybliżył uczestnikom sesji, jak z tematem danych i analityki poradził sobie koncern ABB, globalny wytwórca systemów automatyki przemysłowej. O skali wyzwania, ale również i potencjału oraz możliwości w obszarze danych – świadczy profil tej spółki: ABB zatrudnia na całym świecie 105 tys. osób i utrzymuje prawie 180 zakładów wytwórczych. Z jej produktów korzysta przemysł, branża motoryzacyjna, transport i wiele innych.
Środowisko danych w ABB jest rozbudowane i odzwierciedla złożoną strukturę firmy. W skali globalnej koncern korzysta z ponad 100 hurtowni danych, które obsługują różne obszary funkcjonalne, takie jak finanse, HR, sprzedaż czy dedykowane aplikacje. Większość z tych hurtowni opiera się na technologiach takich jak Snowflake, SAP Business Warehouse i Microsoft Azure. Te globalne hurtownie zbierają dane dotyczące m.in. sprzedaży, klientów, zakupów i materiałów, a dane te są dostępne niemal w czasie rzeczywistym — transakcje SAP są widoczne w hurtowniach centralnych w ciągu 15-30 minut.
Raportowanie i analityka w ABB opierają się głównie na technologii Microsoft Power BI oraz narzędziach SAP, takich jak SAP Analytics Cloud i Business Object.
Tylko w moim dziale mamy ponad 2,5 tysiąca przestrzeni roboczych Power BI, które służą do analizowania i konsumpcji danych przez użytkowników – powiedział Andrzej Kubicz.
Z kolei globalna hurtownia, o zasobach liczących setki terabajtów danych, udostępnia kluczowe dane w czasie rzeczywistym dla całego personelu koncernu.
Od kilku lat ABB inwestuje w ujednolicenie swoich platform danych, aby połączyć operacje transakcyjne w systemach SAP z analizą danych opartą na platformie Snowflake. Centralne funkcje biznesowe, takie jak analityka, są dostarczane globalnie dla wszystkich dywizji koncernu.
Jednym z kluczowych celów ABB w obszarze danych była i jest demokratyzacja danych, czyli udostępnienie narzędzi i umiejętności poszczególnym jednostkom organizacyjnym, takim jak dywizje, zakłady produkcyjne czy zespoły lokalne. Zamiast budować scentralizowane analizy, ABB dostarcza dane i uczy pracowników, jak z nich korzystać, co daje im większą autonomię w podejmowaniu decyzji. To podejście przedstawiciel ABB porównał do dawania wędki zamiast ryby — udostępniane są dane i narzędzia, a nie gotowe rozwiązania.
W miarę jak rosną potrzeby analityczne, konieczne stało się wprowadzenie modeli analityki samoobsługowej. To odpowiedź na rosnącą złożoność i różnorodność wymagań dotyczących raportowania, gdzie użytkownicy często chcą weryfikować wyniki na podstawie różnych wymiarów danych. Dajemy więc narzędzia, które pozwalają pracownikom samodzielnie eksplorować dane i tworzyć własne raporty. Trend, który zyskuje na znaczeniu, to self-analytics i co-pilot, gdzie AI sugeruje wnioski z danych, odkrywając zależności, których człowiek mógłby nie zauważyć – dodał Andrzej Kubicz.
W ramach wsparcia kultury pracy z danymi duży nacisk kładziony jest na edukację i budowanie odpowiedzialności w korzystaniu z danych. Chodzi o to, by pracownicy nie bali się korzystać z danych w swojej codziennej pracy i rozumieli, jak robić to odpowiedzialnie. Wprowadzono także mechanizmy kontrolne, takie jak logowanie dostępu, które pozwalają śledzić, kto i w jaki sposób korzysta z danych.
Poczuć chemię do danych
Jak podkreślał Robert Pławiak, działania Zespołu IT&Digital Polpharmy związane z danymi opierają się na precyzyjnie zdefiniowanej strategii.
Zaczęliśmy od analizy obecnej sytuacji. Analiza PESTEL (czynniki polityczne, ekonomiczne, społeczne, technologiczne, środowiskowe i prawne – red.) oraz SWOT pomogły nam określić, na czym się koncentrujemy i jakie trendy dominują na rynku. Szczególną uwagę zwracamy na dwa kluczowe obszary innowacji Digital Manufacturing oraz Digital Healthcare, śledząc najnowsze trendy, innowacje. – dodał Robert Pławiak
Polpharma zajmuje się produkcją leków generycznych, czyli tych, które można znaleźć zarówno w tabletkach i saszetkach, jak i podawanych w szpitalach w formach sterylnych, np. dożylnie. W czasie prezentacji ważnym wydarzeniem było otwarcie przez Polpharmę piątej fabryki, której głównym przeznaczaniem i zadaniem będzie produkcja HP API czyli substancji czynnych.
Kluczowymi elementami w procesie produkcji, od badań i rozwoju aż po kontrolę jakości, są dane oraz wykorzystanie danych po automatyzację. W ramach firmowej społeczności Polpharma Digital Tribe zbierane i analizowane są pomysły od pracowników – zarówno te śmiałe, jak i bardziej szalone. Wszystkie trafiają do specjalnego programu, który pozwala nam selekcjonować najlepsze z nich.
Dane są wykorzystywane na wiele sposobów. Przykładem jest wykorzystanie rozwiązań Power BI, który dostarcza raporty w czasie rzeczywistym. Przez te narzędzia monitorowany jest m.in. wskaźnik efektywności linii produkcyjnych – im wyższy, tym lepsze wykorzystanie zasobów ale także HR PowerMapy i wiele innych, których w całej firmie mamy przeszło 500. Firma aktywnie korzysta także z rozwiązań observability np. Splunk, który służy do analizy i wizualizacji danych z różnych źródeł. Pozwala to wykrywać trendy i anomalie oraz rozwiązywać problemy związane z infrastrukturą IT oraz OT, co wpływa na poprawność działania systemów produkcyjnych.
Wykorzystywane rozwiązania IT ecosystemu Polpharma w tym Splunk odgrywają kluczową rolę również w zapewnianiu zgodności z normami GAMP (ang. Good Automated Manufacturing Practice). – Dzięki temu możemy zagwarantować, że procesy produkcyjne i ich produkty – leki - które trafiają na rynek są bezpieczne i zgodne z ich przeznaczeniem. Dzięki rozwiązaniom observability, monitorujemy również wykorzystanie zasobów chmurowych, np. weryfikując, ile ich faktycznie zużywamy – podkreślił Robert Pławiak.
Przetwarzane dane służą też do przewidywania popytu i sprzedaży oraz maksymalizacji efektywność poszczególnych kanałów dystrybucji.
Jednym z najnowszych rozwiązań działu IT&Digital Polpharmy jest narzędzie jest AI Service Desk, osadzone w środowisku Microsoft Teams. System korzysta z modeli Azure i umożliwia automatyczne udzielanie odpowiedzi na pytania użytkowników, bazując na wiedzy zawartej w firmowych zasobach i dokumentach. To podejście pozwala nam skutecznie monitorować całą infrastrukturę IT i produkcyjną, eliminując potencjalne problemy i optymalizując procesy biznesowe – zapewnił CTO Polpharmy.
Sztuczna inteligencja a prawo
Ostatnią w serii wystąpień na Data Excellence 10 była prelekcja przedstawicieli Kancelarii DZP. Dr Aleksandra Auleytner omówiła kwestie stosowania generatywnej sztucznej inteligencji w kontekście prawa autorskiego. Utwory stworzone przy użyciu generatywnej sztucznej inteligencji wciąż nie spełniają tradycyjnych kryteriów utworów w rozumieniu prawa autorskiego, co stwarza ryzyko braku ochrony własności intelektualnej dla rezultatów takiej twórczości.
Co więcej, w różnych regionach na świecie spotykane jest inne podejście do tej materii. Przykładowo, w Stanach Zjednoczonych, do tamtejszego US Copyright Office wpłynęło blisko 100 wniosków o rejestrację utworów stworzonych z pomocą AI, jednak w większości przypadków odmówiono rejestracji, uznając, że dzieła te nie spełniają tradycyjnych kryteriów autorstwa. Decydującym czynnikiem było to, czy system służył jedynie jako narzędzie pomocnicze, czy też spełniał rolę twórczą, obejmującą m.in. kreatywność i ekspresję autora.
W Chinach natomiast podejście jest inne – tam nawet prace stworzone na podstawie kilku promptów mogą być chronione prawem autorskim.
W Europie czekamy na implementację na podstawie unijnej dyrektywy z 2019 roku, możliwe jest korzystanie z utworów dostępnych w internecie na potrzeby treningu systemów AI, o ile nie zastrzeżono wyraźnie praw do ich wykorzystania. Jaki jednak technicznie standard zostanie przyjęty do oznaczania braku zgody na wykorzystanie pozostaje niewiadomą – podsumowała dr Auleytner.
Z kolei Marek Laskowski przybliżył słuchaczom opracowane w DZP rozwiązanie, które określił mianem „wirtualnego prawnika”. Umożliwia ono komunikację w języku naturalnym z systemem wyposażonym w bazę danych obejmującą regulacje prawne, akty wykonawcze i inne dokumenty z danej dziedziny prawa.
Narzędzie opiera się na wykorzystaniu trzech modeli: LLaMA, ChatGPT oraz Claude. Proces zadawania pytań w języku naturalnym jest bardzo prosty – pytanie trafia jednocześnie do trzech modeli, które przetwarzają je na podstawie załadowanych do systemu tysięcy dokumentów.
Rozwój tego rodzaju oprogramowania odbywa się w ramach legal techu, czyli technologii wspierających branżę prawniczą. Choć w Polsce rozwój tej dziedziny jest jeszcze powolny, na świecie legal tech dynamicznie się rozwija – podkreślał Marek Laskowski.
Jedną z najbardziej promowanych firm w tej przestrzeni jest amerykańska firma harvey.ai, która zebrała ponad miliard dolarów w trzech rundach finansowania, wspierana m.in. przez Microsoft, Metę, oraz największe fundusze inwestycyjne z Doliny Krzemowej. Firma ta rozwija m.in. „bota prawniczego” przeznaczonego do udzielania odpowiedzi w kwestiach prawnych. – zastrzegł dyrektor IT w kancelarii DZP.
O programie
CIONET Data Excellence to program wymiany doświadczeń w zakresie wykorzystania danych. Zapoczątkowany w 2022 r., obejmuje organizowane cyklicznie sesje strategiczne oraz warsztaty online.
Partnerami 10. sesji Data Excellence były firmy Ab Initio Software, Amazon Web Services, Hewlett Packard Enterprise, Murdio, Infinite Services, Snowflake i Splunk.
Najbliższa sesja strategiczna odbędzie się 27 listopada 2024 r. Rejestracja już trwa! https://www.cionet.com/dataexcellence/11sesja
Więcej informacji na stronie programu: cionet.com/dataexcellence.
These Stories on CIONET Poland
No Comments Yet
Let us know what you think