<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-5MNKFGM7" height="0" width="0" style="display:none;visibility:hidden">
New call-to-action

Dane = decyzje = przewaga

Published by Redakcja CIONET Polska
June 27, 2025 @ 4:11 PM

Znaczenie danych dla funkcjonowania organizacji będzie tylko rosnąć, dlatego warto odpowiednio wcześnie rozpoznać wyzwania w obszarze Data Governance. Jak pokazują przykłady, coraz więcej organizacji reprezentujących bardzo różne branże – począwszy od instytucji finansowych po sektor komunalny – odrobiło pod tym względem swoją lekcję i z sukcesami wdraża nowoczesne strategie zarządzania danymi, wspomagając się dodatkowo narzędziami AI. 

Za nami kolejna tegoroczna sesja strategiczna Data & AI Excellence TRIBE, programu skupionego wokół zagadnień związanych z zarządzaniem danymi i wdrażaniem AI w organizacjach.  


Dariusz Gałęzowski, Director of Data Management Office w BGK, w wystąpieniu zatytułowanym „CDO na rozdrożu: gdzie w organizacji naprawdę powinien być szef danych?” omawiał zagadnienia związane z umiejscowieniem, mandatem i współpracą CDO w złożonej organizacji. 

Paweł Wąsowicz, dyrektor ds. AI i ML w firmie Diagnostyka, podsumował wdrożenie systemu bazującego na technologii uczenia maszynowego i danych pochodzących z firmowych laboratoriów, który prognozuje zapotrzebowanie, optymalizuje zużycie materiałów i automatyzuje kontrolę jakości niemal bez udziału człowieka.  

Piotr Słomianny zaprezentował historię i szczegóły budowy i wdrażania ekosystemu danych
w MPWiK we Wrocławiu. CFO/CIO spółki przybliżył, jak wygląda nowoczesna architektura danych, jak działa data governance i jak zespoły analityczne przekładają dane na rzeczywiste projekty. 

54551214358_48bec4d895_o

 

CDO coraz bardziej potrzebny

Jak tłumaczył Dariusz Gałęzowski, obowiązki CDO można podzielić na cztery główne obszary. Pierwszy to budowa i wdrożenie strategii danych, w tym dostosowanie procesów do regulacji zewnętrznych, takich jak AI Act czy RODO. Drugi obejmuje nadzór nad procesami gromadzenia, przechowywania i przetwarzania danych, z naciskiem na zapewnienie ich jakości i bezpieczeństwa. 

Po trzecie, CDO musi kreować pewną kulturę organizacji w zakresie analizy danych, aby dane traktować jako coś więcej niż zapisy w systemach – aby przekształcać surowe dane w informacje biznesowe oraz postrzegać je jako aktywo organizacji. Czwarty obszar odpowiedzialności CDO to innowacje i analityka zaawansowana – poszukiwanie nowych możliwości wykorzystania danych do tworzenia wartości dodanej i przewagi konkurencyjnej (niedawno taką innowacją były rozwiązania chmurowe – dziś jest to bez wątpienia sztuczna inteligencja). W tym obszarze ważnym jest wspieranie rozwoju narzędzi AI łącznie z zapewnieniem wiarygodnych danych na każdym etapie budowania rozwiązań.

54550981471_4bec0f42c0_o

Jeżeli chodzi o kompetencje CDO, to znajdziemy wśród nich mało kwestii związanych stricte z IT i twardymi umiejętnościami technicznymi.

 

To bardziej kompetencje związane z analizą, bezpieczeństwem, z projektami,
z nowymi technologiami. Te kompetencje są na tyle istotne, że bez ich zrozumienia
i to zrozumienia wszystkich tych elementów trudno jest opracować choćby strategię danych, która jest adekwatna do potrzeb każdej firmy 
– mówił przedstawiciel BGK.

Obecnie w BGK obszarowi odpowiedzialności CDO podlegają role takie jak Data Compliance Officer, Data Analyst & Business Analyst, Data Governance Specialist, Data Steward, Data Quality Specjalist i Data Architect. Organizacja ma jednak większy apetyt – chce zagospodarować również takie pozycje, jak Data Visualization Specialist, Data Scientist, Data Engineer, AI i Machine Learning Engineer. 

Najistotniejsza kwestia dotyczy jednak określenia miejsca Chief Data Officera w strukturze organizacji. Nie zawsze musi być to stanowisko umiejscowione wysoko w hierarchii – to zależy od wielkości i dojrzałości firmy – jednak jego pozycja i zależność (podległość) może kształtować cały ekosystem danych. 

Z umocowaniem CDO w firmie bywa różne – od dyrektora departamentu po bezpośrednią podległość prezesowi. Każde z tych rozwiązań niesie inne konsekwencje – od wzmocnienia pozycji i wpływu na decyzje po ryzyko ograniczenia roli do funkcji technicznej lub kontrolnej. 

54551159474_0ef727a87b_o

Przykładowo, jeżeli CDO raportuje do prezesa lub Wiceprezesa ds. finansów, daje mu to pewną siłę sprawczą i niezależność. Nie będąc przyporządkowanym do żadnego konkretnego departamentu, może patrzeć szerzej i wskazywać priorytety w obszarze danych lub projekty korzystne z punktu widzenia całej organizacji.  

W mniejszych organizacjach CDO bywa ulokowany w pionie transformacji cyfrowej lub w IT, co jednak może ograniczać jego rolę w standaryzacji procesów i blokowaniu niekorzystnych zmian., szczególnie jeżeli na dziale IT ciąży obowiązek szybkiego wdrażania nowych rozwiązań
i dostarczania produktów. Czasem CDO przypisuje się do obszaru ryzyka, co zapewnia jego niezależność od IT – w tej sytuacji wpływ tej roli na rozwój jest stosunkowo niewielki, gdyż CDO koncentruje działania głównie na minimalizacji potencjalnych strat. 

Lokalizacja stanowiska CDO powinna uwzględniać specyfikę sektora, dojrzałość oraz wielkość organizacji. Kluczowe jest, by nie była to rola tytularna – CDO powinien rzeczywiście odpowiadać za dane i realizować wyznaczone cele, gdyż w przeciwnym razie będzie postrzegany jako kontroler, a nie partner.   

Kluczowe jest także wsparcie narzędziowe. Bez odpowiednich systemów zarządzania danymi, nawet najlepiej opracowana strategia staje się zbiorem pustych deklaracji. Ostatecznie to właśnie połączenie kompetencji, pozycji w strukturze i zaplecza technologicznego decyduje o tym, czy CDO stanie się rzeczywistym liderem transformacji opartej na danych. 

Gdzie AI nie może…  

Sieć laboratoriów medycznych Diagnostyka działa na granicy nauki i data science, udowadniając, że odpowiednio przetworzone dane operacyjne i sprawdzone modele ML znacząco usprawniają funkcjonowanie całej organizacji. 

Sukcesem w obszarze zarządzania danymi, jakim może pochwalić się firma, jest system optymalizacji zużycia zasobów i automatyzacji kontroli jakości. Jak ujął to w trakcie swojego wystąpienia Paweł Wąsowicz, celem projektu było zoptymalizowanie procesów – przewidzenie liczby pacjentów i wykonywanych badań, aby odpowiednio skalkulować zapotrzebowanie na używane w oddziałach odczynniki.  

54551160479_6fc51ebd5e_o

Wyzwanie polegało na tym, jak przewidzieć zapotrzebowanie, jeżeli nie dysponujemy kompletnymi danymi: posiadanie wyłącznie wyników badań pacjentów bez kontekstu zdrowotnego mocno komplikowało proces prognozowania. Dodatkowym czynnikiem ryzyka były regulacje prawne, ograniczające możliwość profilowania pacjentów bez ich zgody.

Na to trzeba było nałożyć skalę. Centralną bazę firmy zasilają dane z ok. 90 laboratoriów rozsianych po całej Polsce, które co roku „produkują” ok. 500 mln rekordów. Zdaniem Wąsowicza tak duży zbiór danych przekraczał zdolności przetwarzania obecnie dostępnych modeli językowych, co zmusiło zespół analityków do zastosowania metody losowego próbkowania: opracowania rozwiązania na ograniczonym zestawie danych. 

54551318875_4f789f3391_o

Co ciekawe, opracowane przez zespół Diagnostyki rozwiązanie wytrenowano na danych kobiet
w ciąży. Przy użyciu klasteryzacji oraz metod regresyjnych i drzew decyzyjnych sprawdzono, czy można przewidzieć ich zachowanie – jakie badania będą wykonywać. 

W ostatecznym rozrachunku system prognozowania pozwolił na optymalizację zapasów odczynników z odchyleniem na poziomie 2-3 proc. 

Analizą objęto również kontrolę jakości: monitorując statystycznie pomiary sprzętu, można wykrywać odchylenia i zapobiegać błędom, zanim dojdzie do awarii maszyn. Badanie obciążenia pracy w laboratoriach, w tym godzin wizyt pacjentów, doprowadziło optymalizacji wykorzystania mocy obliczeniowej czy planowania transportu odczynników między placówkami. 

Zarządzania danymi trzeba się nauczyć

W wypadku MPWiK Wrocław potrzeba uporządkowania obszaru danych opierała się na kilku przesłankach. W organizacji zwrócono uwagę na konieczność ujednolicenia środowiska raportowego i zmniejszenia jego awaryjności, uznano też, że realna automatyzacja procesów
i ograniczanie udziału człowieka w zadaniach wymaga solidnego fundamentu danych.   

Dostrzeżono też potrzebę bardzo dobrej jakości danych dla projektów predictive maintenance
w obszarze OT. A warto dodać, że spółka już w 2015 r. zaczęła stosować systemy bazujące na uczeniu maszynowym i głębokim w obszarze OT, m.in. na obiektach wrocławskiej oczyszczalni ścieków – dzięki prognozowanej konserwacji udało się obniżyć częstotliwość serwisów urządzeń, zmniejszając liczbę awarii i koszty eksploatacyjne. 

Jak przyznał Piotr Słomianny, pierwszy projekt związany z data governance, datowany na
2022 r., zainicjowano w MPWiK bardziej z powodów naprawczych i nie miał on charakteru strategicznego. Wizją było stworzenie wdrożeniu wspólnej platformy danych i towarzyszącego jej podręcznika standaryzacji oraz zaangażowanie firm zewnętrznych, aby równolegle wdrażać nowe źródła danych i rozwijać wewnętrzne kompetencje. 

54550103592_a99a617d3b_o

Wersja 1.0 programu Data Governance była dla spółki cennym poligonem doświadczalnym. Wypracowano podejście do zaawansowanych środowisk analitycznych z pełnym wykorzystaniem chmury obliczeniowej i wprowadzono rozbudowaną strukturę ról oraz odpowiedzialności. Zawiódł natomiast transfer wiedzy – współpracujące firmy zewnętrzne forsowały własne rozwiązania, co utrudniało rozwój kompetencji wewnętrznych. 

W wersji Data Governance 2.0 ekosystem został uproszczony, a do współpracy zaproszono zewnętrznego eksperta, pełniącego rolę zewnętrznego CDO. Kluczowym krokiem było utworzenie wirtualnego zespołu analityków danych – sponsorowanego przez Piotra Słomiannego –
z wewnętrznym naborem: każdy w organizacji (sprzedaż, produkcja wody, IT) mógł poświęcić jeden dzień w tygodniu na rozwijanie kompetencji i pracę w zespole.

Dzięki temu mamy znajomość potrzeb biznesowych i od razu budujemy kompetencje wewnątrz organizacji – podkreślił prelegent. 

Obok zespołu analityków działa wirtualny zespół RPA, odpowiedzialny za stworzenie
27 algorytmów oraz zespół AI, który obecnie rozwija ścieżkę edukacyjną we współpracy
z Politechniką Wrocławską i tamtejszą Katedrą Sztucznej Inteligencji.  

54550103572_4d9788f2ee_o

Jednym z przykładów stosowania AI w MPWiK jest prognozowania prawdopodobieństwa awarii na poszczególnych odcinkach sieci wodociągowej i kanalizacyjnej w nadchodzącym roku lub pięciu latach. Model, analizując ok. 140 zmiennych, wskazuje z 90 procentowym prawdopodobieństwem, na jakim odcinku może dojść do awarii. Na analizę nałożony jest model finansowy, łączący koszty alternatywne (brak naprawy awarii vs. jej usunięcie) oraz społeczne skutki dla mieszkańców. Pozwala to spółce optymalnie wybierać priorytetowe zadania remontowo-konserwacyjne. 

Obecnie MPWiK pracuje nad Data Governance 3.0, w którym założono m.in. mocniejsze wykorzystanie AI, łatwiejsze przetwarzanie danych nieustrukturyzowanych (np. maile), uproszczenie – za pomocą narzędzi generatywnej sztucznej inteligencji – klasyfikacji spraw
i optymalizację ścieżek obiegu, użycie GenAI do weryfikacji i poprawy jakości danych oraz wprowadzenie pętli zwrotnych uczących się na błędach. 

Dzięki tym działaniom MPWiK stopniowo przekształca dane z operacyjnego „balastu” w realne aktywo, które wspiera decyzje, optymalizuje koszty i przyspiesza rozwój nowych usług – podsumował Piotr Słomianny.  

 

Kolejna sesja strategiczna programu CIONET Data & AI Excellence TRIBE jest przewidziana na październik 2025 r. Więcej szczegółów wkrótce. 

Partnerami programu CIONET Data & AI Excellence TRIBE są firmy Ab Initio, AWS, IBM, i splunk. 

A jeśli jeszcze nie jesteście w Programie, zapraszamy do TRIBES - unikatowej społeczności, wspierającej podejmowanie decyzji i rozwiązywanie problemów. Dołączcie do grona doświadczonych ekspertów, którzy wzajemnie dzielą się wiedzą i inspirują w ramach zamkniętych spotkań.👇

1600 x 628 (1800 x 600 px)

 

No Comments Yet

Let us know what you think

You May Also Like

These Stories on CIONET Poland

Subscribe by Email