Jak projektować i implementować strategie zarządzania danymi w organizacji? Jak budować trwałe partnerstwa między działami technologicznymi i biznesem? Przeczytaj relację z sesji strategicznej Data & AI Excellence TRIBE i dowiedz się, jakie odpowiedzi na te pytania proponują eksperci i praktycy obszaru danych w największych polskich firmach.
Głównym punktem agendy sesji strategicznej programu Data & AI Excellence TRIBE były case studies. W roli prelegentów wystąpili Dariusz Gałęzowski, Director of Data Management Office w BGK, Karolina Wojewoda, dyrektor Departamentu Rozwoju Platform i Bartosz Jaroszewski, Managing Director w VeloBanku oraz Grzegorz Szałachwij, p.o. Zastępcy Dyrektora Departamentu Business Intelligence w Polkomtelu/Netii.
Jak „kupić” biznes?
Dariusz Gałęzowski w trakcie wystąpienia zatytułowanego "Data governance – co zrobić, żeby kupić biznes?" wskazywał, że priorytetem dla każdej organizacji w obszarze data governance powinno być budowanie wzajemnego zaufania pomiędzy różnymi departamentami.
W kontekście zarządzania danymi pojawiają się pytania o ich jakość, sposób przetwarzania i odpowiedzialność za nie, co wymaga współpracy całej organizacji – niezależnie od tego, czy mówimy o banku, czy instytucji rządowej. Biznes powinien postrzegać tę współpracę nie tylko przez pryzmat regulacji czy audytów, ale przede wszystkim jako partnerstwo oparte na wspólnych celach.
Zdaniem przedstawiciela BGK efektywny system data governance opiera się na kilku filarach, które pomagają zawrzeć długoterminową i efektywną współpracę. Każdy z tych obszarów można – a nawet trzeba – opisywać językiem korzyści, uwzględniając różne oczekiwania – od doświadczeń, poprzez wiedzę o zasobach, aż po elastyczność rozwiązań i odpowiedzialność za dane. Kluczowe jest, aby przedyskutować wspólne wartości i podejście do danych jako aktywa firmy, a nie jedynie kosztu.
Nikt poprawnie nie wdroży rozwiązania AI ani nie przeprowadzi transformacji cyfrowej, gdy nie będzie miał wdrożonego data governance. Brak właściwie zaplanowanego generuje tylko większe koszty i wymaga większych nakładów pracy. – przestrzegał Gałęzowski.
Pierwszy aspekt to zdefiniowanie wspólnych wartości – warto przeanalizować (pod kątem pryncypiów organizacji) czy dane to aktywo firmy czy też raczej koszt i czy potrafimy określić ich wartość. Drugi aspekt to ustalenie priorytetowych obszarów operacyjnych, zwłaszcza jeżeli mamy do czynienia z ograniczonymi zasobami kadrowymi (w banku takim obszarem może być szacowanie ryzyka).
Warto również rozmawiać o monetyzacji danych, traktując je zarówno jako źródło bezpośrednich przychodów, jak i element długoterminowego zysku dla organizacji, np. poprzez optymalizację tzw. lejka sprzedażowego.
Kolejnym aspektem jest ocena kompetencji – zarówno tych dotyczących zarządzania danymi, jak i umiejętności analitycznych w IT oraz biznesie. W przypadku braku wystarczających kompetencji, niezbędne jest wyznaczenie osoby lub zespołu, który przejmie wiodącą rolę, ucząc resztę organizacji, jak rozumieć dane i wykorzystywać je analitycznie bez generowania dodatkowych kosztów.
Ważną rolę odgrywa także komunikacja – regularne informowanie o postępach, planach, osiągnięciach i problemach pozwala wszystkim stronom procesu zrozumieć cel działań oraz umożliwia wymianę informacji, co jest nieocenione przy budowaniu partnerstwa.
Dariusz Gałęzowski zwracał również uwagę na konieczność realistycznej oceny posiadanych zasobów i możliwości. – Nie warto obiecywać wdrożenia AI, gdy brakuje serwerów, chmury lub kompetencji w optymalizacji promptów. Należy mówić językiem korzyści, nie budząc lęków związanych z regulacjami, a jednocześnie budować zrozumienie, że działania te przyczyniają się do niwelowania restrykcji prawnych, takich jak DORA czy AI Act. Współpraca między architektami różnych domen korporacyjnych może przyspieszyć ocenę projektów i generowanie rozwiązań – podkreślał.
Należy ponadto pamiętać o aspekcie ludzkim – wzajemne wsparcie, zamiast krytyki i pouczania, jest fundamentem budowania koalicji oraz zaufania. Przy niepowodzeniach trzeba sobie nawzajem pomagać, ale jednocześnie być gotowym do zdecydowanej reakcji w przypadku braku współpracy, łącznie z wyciąganiem konsekwencji.
Podstawą sukcesu jest odpowiednio umocowany sponsor działań z zakresu data governance. Przykładem jest BGK, gdzie główny prezes przewodniczy komitetowi data governance, co eliminuje długotrwałe dyskusje i przyspiesza podejmowanie decyzji. Równie ważne jest właściwe umiejscowienie Chief Data Officera w strukturze organizacyjnej. Zdaniem prelegenta obszar IT nie jest w tym wypadku optymalny – bardziej odpowiedni jest poziom zarządu lub obszar finansów, ponieważ data governance ma wspierać IT, ale nie może tracić swojej niezależności na rzecz szybkości czy obniżania kosztów kosztem zgodności z przepisami.
Ostatecznie, kluczowym elementem jest ciągła komunikacja i wspólne pokazywanie efektów działań. Biznes powinien czuć się właścicielem sukcesu, a my – jako wsparcie – powinniśmy doceniać i promować osiągnięcia. Pozwala to budować trwałe partnerstwo oparte na wzajemnym zaufaniu i wspólnym rozwoju.
– podsumował Gałęzowski.
Efektywna współpraca z biznesem
Zagadnieniom współpracy z departamentami biznesowymi poświęcona była również prezentacja Grzegorza Szałachwija. Reprezentant Polkomtela/Netii przedstawił ją w kontekście zastosowań uczenia maszynowego. Machine learning może być bowiem niezmiernie przydatnym, wielofunkcyjnym narzędziem do przewidywania przyszłych zachowań klientów – zarówno pozytywnych, jak zakup produktu, jak i negatywnych, np. brak płatności za faktury.
– Pracuję w wyspecjalizowanym departamencie zajmującym się danymi i ich różnorodnym wykorzystaniem. Jednym z głównych zastosowań tych danych jest budowa modeli machine learningowych. Biznes traktuję jako klienta wewnętrznego, któremu chcę „sprzedać” moje rozwiązania. Muszę ich przekonać do współpracy i wdrażania modeli ML w ich procesach. Z drugiej strony współpracuję z IT, które dostarcza mi dane i infrastrukturę. Moja pozycja poza strukturami biznesu pozwala mi działać szeroko i współpracować z różnymi jego jednostkami, takimi jak marketing czy operacje. Stanowi to jednak wyzwanie: nie ma przymusu, by biznes korzystał z moich rozwiązań, więc muszę go do tego zachęcić – tak Grzegorz przedstawił swoją rolę w firmie.
Z jego doświadczeń wyłania się kilka istotnych aspektów współpracy z biznesem. Po pierwsze, klient wewnętrzny często nie rozumie rozwiązań machine learningowych. Nawet przeznaczając czas na edukację i objaśnianie działania modeli ryzykujemy, że wiedza ta nie utrzyma się w organizacji, zwłaszcza jeśli biznes zostanie z technologią pozostawiony samemu sobie. Bez podtrzymywanego wsparcia po prostu przestanie jej używać.
Drugie jego spostrzeżenie jest takie, że modele uczenia maszynowego nie są krytyczne dla procesów biznesowych. Można z nich zrezygnować, choć ich brak oznacza mniej efektywne decyzje. Jeśli współpraca z biznesem nie będzie odpowiednio prowadzona, ten przestanie korzystać z modeli.
Aby utrzymać dialog z biznesem, staram się nie tylko dostarczać modele, ale także, pomiędzy projektami, przekazywać dodatkową wiedzę, której analitycy w biznesie z jakichś powodów nie dostarczają. Dzięki temu biznes traktuje mnie i mój zespół nie tylko jako dostawcę modeli, ale jako partnera do rozmowy o bolączkach i możliwościach optymalizacji procesów – podkreślał Szałachwij.
Ważnym elementem współpracy jest także umiejętność oceny wartości modeli po ich wdrożeniu. Biznes potrzebuje twardych liczb, aby zrozumieć ich korzyści. Kluczowe jest stosowanie grup kontrolnych i testowych – procesów niezależnych od modeli – by mieć punkt odniesienia i mierzyć realny wpływ modelu na biznes. Przykładowo, w marketingu grupa kontrolna może nie otrzymywać komunikacji, a w obszarze ryzyka można pozwolić niektórym klientom na zakup na raty bez oceny kredytowej, by ocenić skuteczność modelu w przewidywaniu ryzyka.
Jeszcze przed wdrożeniem modelu kluczowe jest oszacowanie jego wpływu finansowego. Budowa i wdrożenie modeli to inwestycja CAPEX, wymagająca uzasadnienia przed zarządem. Biznes potrzebuje konkretnych liczb, by podjąć decyzję. Machine learning daje możliwość wcześniejszej symulacji efektów. – Przykładem może być analiza zachowań naszych klientów na etapie wypełniania formularzy aktywacyjnych – zanim wdrożyliśmy model, przeprowadziliśmy test zbierania dodatkowych danych, a następnie oceniliśmy ich wartość finansową. Dopiero na tej podstawie projekt uzyskał akceptację zarządu – powiedział prelegent..
W obszarze ML kluczowa jest ciągła współpraca z biznesem, a nie tylko realizacja pojedynczych projektów. Partnerstwo oznacza nie tylko dostarczanie modeli, ale też wspieranie biznesu w budowie uzasadnień finansowych, ocenie skuteczności procesów i dostarczaniu wartościowej wiedzy z danych – podsumował.
„GenAI by VeloBank”
Ponieważ program CIONET Data & AI Excellence TRIBE to nie tylko problematyka związana z danymi, ale również ze sztuczną inteligencją, w trakcie sesji nie mogło zabraknąć prelekcji dotykającej tego obszaru. Przedstawili ją menedżerowie VeloBanku, którzy opowiedzieli, w jaki sposób organizacja wykorzystała dobrodziejstwa GenAI.
W VeloBanku rozwiązania bazujące na dużych modelach językowych zaimplementowano zarówno w procesach back-office, jak i w front-office w oparciu o cztery kluczowe obszary wykorzystania technologii AI: asystę klienta, asystę doradcy, automatyzację procesów oraz wsparcie back-office.
Pierwszym krokiem w realizacji projektu było określenie architektury (wybór padł na chmurę Azure). Następnie opracowano architekturę uwzględniającą sposób wykorzystania botów oraz rodzaj przetwarzanych danych. Rozróżniono dane ogólnodostępne i niejawne, co wymusiło podział botów na te wymagające notyfikacji KNF oraz te, które nie podlegały temu obowiązkowi.
Podjęliśmy równoczesne działania w wielu projektach, biorąc pod uwagę różny czas wdrożeń i poziom ryzyka, jakie chcieliśmy zaakceptować. Kluczowe było stworzenie infrastruktury skalowalnej oraz monitoringu aplikacji, co umożliwiło nam precyzyjne oszacowanie kosztów. Każde wdrożenie poprzedzała faza pilotażu, obejmująca testy zarówno wewnętrzne, jak i z udziałem klientów– wyjaśniła Karolina Wojewoda.
Rozwiązania oparte zostały na modelach ChatGPT, przechodząc przez kilka wersji podczas realizacji projektu. Zbudowana architektura umożliwia jednak łatwą wymianę modeli na te pochodzące od innych dostawców. Architektura wymagała nowego podejścia do testowania. Testerzy musieli wykazywać się kreatywnością, zadając niestandardowe pytania. Stworzona została m.in. baza haseł (pojęć) zastrzeżonych oraz obszarów, w których AI nie powinno udzielać odpowiedzi.
Budowanie środowiska chmurowego dla botów różni się od tradycyjnych migracji systemów on-premise. Inaczej zarządza się wysoką dostępnością, a dostawcy nie gwarantują identycznych modeli w różnych regionach, co wymaga dodatkowych mechanizmów zapewniających ciągłość działania – zwracał uwagę Bartosz Jaroszewski.
Jednym z projektów GenAI w VeloBanku jest asystent Vela w aplikacji mobilnej banku. Klient może zadawać pytania dotyczące funkcji aplikacji, a asystent analizuje zawartość ekranu i udziela odpowiedzi, np. jak zmienić limity karty. Asystent obsługuje trzy tryby: tekstowy, nawigacyjny oraz informacyjny, umożliwiając użytkownikom szybkie dotarcie do potrzebnych informacji i funkcji (np. po pytaniu o lokaty system podaje dostępne opcje oraz umożliwia bezpośrednie przejście do odpowiedniej sekcji aplikacji).
Vela utrzymuje kontekst w ramach sesji, co pozwala na bardziej naturalną komunikację. Rozwiązanie działa pod nadzorem, korzystając z predefiniowanej bazy odpowiedzi, co minimalizuje ryzyko błędów. – Początkowo skupiliśmy się na funkcjach aktywnych, takich jak przelewy, jednak szybko okazało się, że klienci najczęściej pytają o warunki swoich produktów bankowych, co wymusiło szybkie rozbudowanie bazy wiedzy – mówiła Karolina Wojewoda.
Przedstawiciele VeloBanku wskazali też wyzwania, z jakimi należy się mierzyć realizując projekty AI. Przede wszystkim, operowanie w środowisku chmurowym jest łatwiejsze niż inwestowanie we własną infrastrukturę, zwłaszcza że modele AI wymagają dużych zasobów. Skalowanie w chmurze pozwala na dynamiczne dostosowanie mocy obliczeniowej i szybką zmianę dostawców modeli. Przy budowaniu wysokiej dostępności w chmurze należy pamiętać, że modele nie są równomiernie dostępne w różnych regionach, co wpływa na wydajność i szybkość działania usług.
Koszty wdrożenia AI obejmują nie tylko opłaty za użycie tokenów, ale również utrzymanie całej infrastruktury chmurowej. Na początku optymalnym rozwiązaniem jest skalowanie w chmurze, ponieważ pozwala na szybsze wprowadzanie zmian i testowanie różnych modeli.
Oboje przyznali też , że kluczowa dla powodzenia projektów była współpraca z biznesem – osoby odpowiedzialne za produkty bankowe lepiej rozumiały potrzeby klientów niż inżynierowie IT, co miało istotny wpływ na jakość budowanych zapytań i odpowiedzi. – Mamy już dedykowane zespoły mieszane, które pracują nad procesami CI/CD dla botów. Wciąż doskonalimy ten obszar, ponieważ bezpieczeństwo i logowanie w środowisku chmurowym wymagają nowych podejść. Otwieramy więcej ruchu niż w tradycyjnych systemach, a usługi są rozproszone, co wymaga starannego monitorowania – wskazała Karolina Wojewoda.
Partnerami sesji TRIBE Data&AI Excellence były firmy Ab Initio Software, Amazon Web Services i Splunk.
Najbliższa sesja strategiczna odbędzie się 27 maja 2025 r. Rejestracja już trwa! https://www.cionet.com/dataexcellence/sesja-strategiczna2
These Stories on CIONET Poland
No Comments Yet
Let us know what you think