CIONET News

Data & AI Excellence TRIBE – relacja z sesji strategicznej

Written by Redakcja CIONET Polska | February 10, 2025 @ 11:12 AM

Chociaż w programie CIONET Data & AI Excellence zaszły w ostatnim czasie istotne zmiany, niezmienna wciąż pozostaje formuła – ciekawe, merytoryczne wystąpienia, dyskusje i networking uczestników skupionej wokół programu społeczności. Ostatnia sesja strategiczna programu w 2024 r. nie była pod tym względem wyjątkiem.

Program funkcjonujący od 2022 r. i początkowo poświęcony tylko zagadnieniom z szeroko rozumianego obszaru przetwarzania i analityki danych został niedawno rozszerzony o wątki związane ze sztuczną inteligencją. Ponadto, wraz z końcem 2024 r. projekt CIONET Excellence, obejmujący oprócz ścieżki Data & AI również Cloud i Security, został formalnie zintegrowany z równolegle prowadzonym przez CIONET programem Tribes.

Na ostatniej w 2024 r. sesji strategicznej Data & AI Excellence uczestnicy mogli wysłuchać inspirujących wystąpień ekspertów, a następnie, już w trakcie sesji roundtable, szczegółowo omówić wątki przedstawione w trakcie prelekcji.

A skoro o prezentacjach mowa – tym razem swoimi doświadczeniami i wiedzą podzielili się Robert Dziadosz, Head of Data & Analytics w Grupie Żywiec, Jarosław Łach, Data Tribe Leader w BNP Paribas Bank Polska oraz Jakub Rzeźnik, ekspert ds. R&D, Data Scientist w Orange Innovation i Borys Stokalski, ekspert organizacji Global Partnership on Artificial Intelligence.

Partnerami programu CIONET Data & AI Excellence TRIBE są firmy AB Initio, Amazon Web Services, Google Cloud i HP Enterprise.

 

Jak raportować dane, to chmurowo 

Grupa Żywiec przeprowadziła znaczącą transformację swoich systemów raportowych, przenosząc je z rozwiązań on-premise do środowiska chmurowego. Proces ten, trwający półtora roku, był odpowiedzią na rosnące potrzeby organizacji w zakresie analityki oraz na dążenie centrali do unifikacji środowisk IT. – Kluczowym celem było ograniczenie kosztów, zwiększenie efektywności dostępu do danych i otwarcie możliwości wdrożenia zaawansowanych technologii, takich jak sztuczna inteligencja, uczenie maszynowe i generatywne AI – mówił Robert Dziadosz.

Przed rozpoczęciem projektu Grupa korzystała z hurtowni danych SAP BW/4HANA, zasilanej informacjami z różnych źródeł, w tym systemów SAP ERP, Salesforce, kas fiskalnych od dystrybutorów. Narzędzie Qlik Sense pełniło funkcję warstwy wizualizacyjnej. Wysokie koszty utrzymania środowiska oraz potrzeba uproszczenia zarządzania danymi stały się głównymi czynnikami skłaniającymi do zmiany. Dodatkowo centrala (grupa należy do koncernu Heineken) wymagała ujednolicenia systemów IT, aby dane były łatwiej dostępne dla całej organizacji.

W ramach realizacji projektu wszystkie źródła danych spoza SAP zostały przeniesione do Azure Data Lake. Platforma Databricks stała się głównym silnikiem przetwarzania danych, co pozwoliło na modelowanie i rozwój rozwiązań wykorzystujących uczenie maszynowej i generatywną AI. Nowym narzędziem raportowym jest natomiast Power BI. W ramach migracji przeniesiono około 250 wizualizacji raportów, co już dziś pozwala na ograniczenie kosztów raportowania o 30 proc.

Transformacja przyniosła szereg istotnych korzyści. Dostęp do danych stał się znacznie łatwiejszy, nowe rozwiązanie jest bardziej otwarte i elastyczne, co upraszcza procesy integracji danych i pozwala na łatwiejsze zarządzanie wieloma źródłami informacji – ocenił Dziadosz.

Kolejny znaczący atut to skalowalność. W środowisku chmurowym możliwe jest dynamiczne zarządzanie zasobami obliczeniowymi, podczas gdy wcześniejsze rozwiązania on-premise generowały stałe, wysokie koszty, niezależnie od ich faktycznego wykorzystania. Wdrożenie Power BI zwiększyło dostępność narzędzi analitycznych dla użytkowników końcowych. Ogółem, w porównaniu z poprzednim środowiskiem nowe rozwiązanie jest znacznie bardziej przyjazne i intuicyjne w obsłudze.

Pomimo licznych korzyści projekt napotkał również pewne wyzwania. Jak przyznał przedstawiciel Grupy Żywiec, demokratyzacja danych, czyli umożliwienie użytkownikom samodzielnego tworzenia raportów, prowadzi do sytuacji, w której różne działy uzyskują odmienne wyniki dla tych samych wskaźników KPI. Rozwiązaniem tego problemu jest wdrożenie modelu „jednego źródła prawdy”, które zagwarantuje spójność danych.

Problemem okazała się też duplikacja danych – informacje przetwarzane w Databricks muszą być dodatkowo przenoszone do Power BI, co powoduje nadmiarowość (w SAP BW/4HANA podobne problemy nie występowały, ponieważ dane były odczytywane bezpośrednio z bazy danych).

Dodatkowe trudności pojawiły się przy zarządzaniu kosztami. Rozliczanie w systemie Databricks, poza oczywistymi opłatami wynikającymi z używania zasobów, odbywa się także za pomocą tzw. „DataBricks Units” wykupionych wcześniej przez korporację, które generują dodatkowe opłaty zależne od stopnia wykorzystania zasobów. Power BI również stwarza wyzwania związane z licencjonowaniem – niektóre raporty przekraczają limity wersji pro, co wymaga przejścia na droższą wersję premium. Kolejnym wyzwaniem jest konfiguracja środowiska Azure, które w przeciwieństwie do SAP nie oferuje gotowych rozwiązań „out of the box”. Prawidłowa architektura wymaga starannego zaplanowania przez doświadczonych specjalistów, aby była czytelna i wydajna, a także aby minimalizować koszty.

Czas zwrotu z inwestycji został oszacowany na trzy lata i dwa miesiące. Od stycznia 2025 roku system zacznie przynosić realne oszczędności. W kalkulacji tej uwzględniono jedynie tradycyjne raportowanie, natomiast dalsze wdrożenia rozwiązań AI mogą generować dodatkowe koszty operacyjne.

 

AI idzie do szkoły  

Jarosław Łach wystąpił z prezentacją zatytułowaną „Dlaczego AI musi szybko osiągnąć dojrzałość?” – AI według mnie do tej pory było trochę w wieku przedszkolnym. To był czas swobodnych eksperymentów, gdzie użytkownicy mogli „bawić się” technologią bez większych oczekiwań i zagrożeń. To już się powoli kończy. Czas już pójść do szkoły – mam na myśli nie tylko GeneAI, ale całą sztuczną inteligencję – tłumaczył.

Przedstawiciel BNP Paribas podkreślał znaczenie połączenia technologii z realnymi potrzebami użytkowników, którzy często nie rozumieją działania AI i podchodzą do niej z obawami. Przejście, gdzie technologia spotyka się z codziennym użytkowaniem, wymaga nie tylko kompetencji technicznych, ale przede wszystkim interdyscyplinarności i dialogu.

Wdrażanie AI nie polega wyłącznie na technologicznym wdrożeniu, ale na skutecznej komunikacji między specjalistami IT a użytkownikami końcowymi. Szczególnie istotne w budowaniu zaufania do nowych rozwiązań jest iteracyjne podejście do rozwoju, szybka poprawa błędów i transparentność działań.

Jednym wyzwań jest problem tzw. halucynacji modeli GenAI, czyli generowania nieprawdziwych informacji. W wypadku banku BNP, który z GenAI eksperymentował opracowując prototyp chatbota, rozwiązaniem stało się cykliczne testowanie skuteczności odpowiedzi oraz dostosowanie promptingu, co pozwoliło na osiągnięcie satysfakcjonujących rezultatów. Głównym celem stało się nie tylko poprawienie jakości technologicznej, ale przede wszystkim budowanie zaufania użytkowników do wdrożonego rozwiązania i stworzenie podstaw pod jego szerokie rozwinięcie.

Pierwsze kroki w obszarze AI bank stawiał na długo przed tym, „zanim stało się to modne”, bo jeszcze przed 2020 r. Większość działań była wówczas skupiona na testach i odkrywaniu możliwości technologii. W 2024 r. zaczął się okres masowego wdrażania i industrializacji AI w całej organizacji. Kluczowe w tej fazie jest ustalenie odpowiednich priorytetów oraz zarządzanie całym procesem wdrożeniowym.

W przypadku rozwoju AI w naszym środowisku bardzo ważne stało się zdefiniowanie priorytetowych obszarów, takich jak rozwój wirtualnych asystentów oraz mierzenie wartości wdrożonych rozwiązań. W ramach strategii grupy BNP Paribas określiliśmy dwa główne wskaźniki: liczbę zrealizowanych przypadków użycia AI na całym świecie oraz wartość, jaką przyniosły one organizacji. Każda jednostka, w tym nasza, została zobowiązana do rejestrowania projektów AI oraz monitorowania ich efektów – powiedział Jarosław Łach.

Obecnie AI znajduje się na granicy przejścia od fazy eksperymentowania do etapu industrializacji. Po zakończeniu eksperymentów organizacja musi zapewnić skupienie na strategicznych celach oraz wypracować odpowiedni system zarządzania (governance), który pozwoli na koordynację działań w większej skali. Organizacja struktury odpowiedzialnej za rozwój AI musi być dopasowana do dojrzałości technologicznej organizacji i skali działań.

Jednym z powodów, dla których faza prototypowania i eksperymentów musi się zakończyć, są regulacje prawne. W kontekście AI Act organizacje muszą przygotować się na rygorystyczne przepisy dotyczące stosowania technologii sztucznej inteligencji. Regulacje te jasno określają zakazane zastosowania AI oraz przewidują surowe kary za ich naruszenie. Dzięki wcześniejszemu doświadczeniu z centralnym rejestrem projektów AI oraz szczegółowemu opisywaniu wdrożeń, jesteśmy dobrze przygotowani do nadchodzących zmian. W praktyce każda organizacja będzie musiała dokładnie przeanalizować swoje strategie i modele wykorzystania AI, aby uniknąć ryzyka związanego z nowymi przepisami – przypominał przedstawiciel BNP Paribas.

Przedszkole się skończyło. Organizacje, które chcą pozostać konkurencyjne, muszą szybko osiągnąć dojrzałość technologiczną i organizacyjną. Przejście do fazy industrializacji wymaga strategicznego podejścia, konsekwencji i umiejętności zarządzania rozwojem sztucznej inteligencji w skali globalnej. AI, choć obiecująca, nie jest technologiczną magią – wymaga zaufania, transparentności i precyzyjnego dostosowania do potrzeb użytkowników – podsumował.

 

Jaka AI? Etyczna, odpowiedzialna, transparentna  

Global Partnership for AI to sieć ekspercka powołana celem opracowania aksjologicznych podstaw pod regulacje dotyczące sztucznej inteligencji. GPAI zrzesza około 300 ekspertów, głównie ze środowiska akademickiego, a także praktyków zajmujących się wdrażaniem AI w realnych projektach. Głównym celem organizacji jest, jak tłumaczył reprezentujący ją Borys Stokalski, ochrona praw człowieka oraz dbałość o wartości demokratyczne w obliczu dynamicznego rozwoju technologii, która coraz bardziej ingeruje w życie ludzi.

Wyzwaniem jest zapewnienie, że systemy AI są zgodne z wartościami etycznymi i regulacjami prawnymi. Problemem wielu firm jest brak odpowiedniej inżynierii oraz praktyk wyjaśnialności modeli. Decyzje projektowe związane z odpowiedzialnością za AI muszą być podejmowane już na etapie koncepcyjnym, aby uniknąć kosztownych i fundamentalnych zmian w późniejszych fazach projektów. Zadanie to wymaga systematycznego podejścia w całym cyklu rozwoju, od konceptualizacji, przez budowanie architektury logicznej, aż po wdrożenie – podkreślał ekspert.

Jednym z kluczowych programów organizacji jest Scaling Responsible AI (RAI Solutions), który wspiera rozwój odpowiedzialnych rozwiązań AI na wczesnym etapie ich tworzenia. Program mentoringowy obejmował 30 projektów z całego świata, w tym dwa autorstwa badaczy i inżynierów z firmy Orange. 

Powodem dołączenia do programu GPAI była, jak tłumaczył Jakub Rzeźnik, refleksja nad zagrożeniami związanymi z wykorzystaniem danych takich jak informacje o osobowości, wyznaniu czy orientacji seksualnej, do profilowania użytkowników. W obliczu rosnącej liczby danych pochodzących z aplikacji mobilnych, priorytetem stało się podejście, które nie tylko personalizuje usługi, ale także chroni prywatność użytkowników. Potencjał sztucznej inteligencji jest bowiem zbyt duży, by pozostawić go bez odpowiedniego nadzoru i kierunku rozwoju.

Jednym ze zgłoszonych rozwiązań było narzędzie umożliwiające zaawansowaną personalizację (na przykład realizację hiperprecyzyjnych kampanii marketingowych) z poszanowaniem prywatności użytkownika. – Mieliśmy już gotowy moduł predykcyjny, który umożliwia budowanie profilu użytkownika na podstawie danych dostępnych na telefonach z systemoperacyjnym Android – mówił Jakub Rzeźnik.

Ten proces trwa mniej niż sekundę na przeciętnym smartfonie i pozwala opisać osobę w oparciu o teorię pięciu wielkich czynników osobowości (Big Five), obejmującą takie cechy jak ekstrawersja, ugodowość, neurotyczność, otwartość na nowe doświadczenia oraz sumienność. Model pozwala na szybkie określenie profilu użytkownika i personalizację usługi, lecz rodzi ryzyko nieetycznego wykorzystania tych informacji. – Założenie projektu było jasne: budujemy technologię, która chroni prywatność, a dane przetwarzane są wyłącznie lokalnie, bez zwracania ich do organizacji – dodał.

Głównym wyzwaniem było stworzenie rozwiązania, które będzie gotowe do skalowania, szczególnie w sytuacji, gdy liczba użytkowników i aplikacji korzystających z personalizacji wzrośnie. – Potrzebowaliśmy wsparcia i mentoringu, aby rozważyć różne scenariusze dalszego rozwoju. Zastanawialiśmy się, co zrobić, jeśli personalizacja zacznie obejmować coraz szerszy ekosystem aplikacji oraz jak model będzie ewoluował, gdy użytkownicy przez długi czas będą poddawani tego rodzaju doświadczeniom – zaznaczył przedstawiciel Orange Innovation.

W trakcie współpracy z GPAI pojawiła się potrzeba stworzenia komponentu, który będzie pełnił rolę strażnika prywatności. Takie rozwiązanie umożliwiłoby personalizację usług nie tylko w aplikacjach Orange, ale także w produktach innych dostawców. Dzięki temu moduł mógłby łączyć informacje z telefonu użytkownika i współpracować z zewnętrznymi aplikacjami, jednocześnie działając w sposób etyczny i zgodny z zasadami ochrony prywatności. Rozważano także scenariusz, w którym moduł funkcjonuje niezależnie, jako narzędzie chroniące prywatność użytkownika.

Wnioski? Sama ochrona prywatności to za mało – konieczne jest również zapewnienie transparentności działania modelu. Użytkownik musi mieć pełną świadomość tego, jakie dane są wykorzystywane i w jakim celu. Ważne jest także wyjaśnienie, jak personalizacja wpłynie na jego doświadczenie, oraz znalezienie metod oceny, czy faktycznie przynosi ona korzyści. Przykładem może być odczytywanie dobrostanu użytkownika na podstawie danych cyfrowych, takich jak logi połączeń, SMS czy aktywność w aplikacjach. Jednak z czasem model może ulegać degradacji, ponieważ przyzwyczajenia użytkowników oraz ich sposób korzystania z urządzeń zmieniają się, zwłaszcza w kontekście zastępowania tradycyjnych form komunikacji nowoczesnymi komunikatorami.

Współpraca z GPAI pozwoliła nam nie tylko na rozwój technologii, ale także na identyfikację potencjalnych ryzyk i wyzwań. Dążenie do personalizacji usług przy jednoczesnym zachowaniu prywatności użytkowników wymaga świadomego podejścia, transparentności i odpowiedzialności. Kluczowe jest uświadamianie użytkowników o konsekwencjach udzielania zgód oraz tworzenie rozwiązań, które będą spełniać ich oczekiwania, a jednocześnie działać w sposób etyczny i zrównoważony – powiedział Jakub Rzeźnik.

Zdaniem Borysa Stokalskiego odpowiedzialność za ryzyko regulacyjne i zapewnienie wyjaśnialności modeli musi stać się integralną częścią kultury rozwoju technologii. Rozwiązania AI muszą być projektowane tak, by radziły sobie z ryzykiem i zapewniały redundancję, czyli mechanizmy gwarantujące bezpieczeństwo i nadzór ludzki. Tego typu podejście jest szczególnie ważne w kontekście systemów o rosnącej autonomii, takich jak autonomiczne platformy logistyczne czy sieci agentów w inteligentnych fabrykach.

W dobie rosnącej skali projektów technologicznych, każdy błąd niesie ze sobą poważniejsze konsekwencje niż kiedykolwiek wcześniej. Dlatego odpowiedzialne podejście do projektowania AI staje się fundamentem technologii przyszłości, której rozwój nie może prowadzić do dotkliwych porażek – podsumował przedstawiciel GPAI.

 

O programie 

CIONET Data Excellence to program wymiany doświadczeń w zakresie wykorzystania danych. Zapoczątkowany w 2022 r., obejmuje organizowane cyklicznie sesje strategiczne oraz warsztaty online.  

Partnerami 10. sesji Data Excellence były firmy Ab Initio Software, Amazon Web Services, Hewlett Packard Enterprise, Murdio, Google Cloud.

Najbliższa sesja strategiczna odbędzie się 12 lmarca 2025 r. Rejestracja już trwa!  https://www.cionet.com/dataexcellence/sesjastrategiczna20250312

Więcej informacji na stronie programu: cionet.com/dataexcellence.