Dzięki nowoczesnym technologiom analitycznym przedsiębiorstwa mogą efektywnie gromadzić, przetwarzać i analizować ogromne ilości danych, co pozwala na optymalizację procesów biznesowych. O tym, jak przetwarzanie danych oparte na modelach uczenia maszynowego wspiera innowacyjność, zwiększa konkurencyjność i przyczynia się do wzrostu efektywności operacyjnej opowiadali – na przykładach własnych organizacji – prelegenci 9. sesji strategicznej programu Data Excellence.
Dziewiąta sesja strategiczna programu Data Excellence zorganizowana została gościnnie w siedzibie firmy ubezpieczeniowej Uniqa. Uczestnicy spotkania wysłuchali wystąpień i obejrzeli prezentacje czterech prelegentów.
Gospodarza sesji reprezentował Mirosław Deja, dyrektor zarządzający pionu IT, który opowiedział, jak zastosowanie AI może ułatwić procesy obsługi szkód. Mateusz Stefański, dyrektor departamentu architektury, ciągłości działania i ryzyka IT w Alior Banku omówił szczegóły migracji hurtowni danych do chmury publicznej.
Leszek Maśniak, CEO w firmie KUNCAR mówił o wyzwaniach związanych z projektowaniem i wdrażaniem cyfrowych bliźniaków w przedsiębiorstwie z sektora energetycznego, a dr Artur Bogucki, prawnik i ekonomista Szkoły Głównej Handlowej, omówił aspekty prawne związane z przyjęciem rozporządzenia AI Act.
Automat do rozszyfrowania dokumentacji medycznej
Mirosław Deja przedstawił use case wdrożeniowy w obszarze automatyzacji i obsługi ubezpieczeń życiowych w firmie Uniqa – w pełni zautomatyzowaną obsługę procesu od momentu, gdy do ubezpieczyciela trafia zgłoszenie o wypłatę odszkodowania do momentu wypłaty pieniędzy klientowi.
Zrobiliśmy to w oparciu o analizę dokumentacji medycznej – w momencie zgłoszenia szkody dostajemy dokumentację, która podlega analizie i na podstawie wyników analizy dokumentów decydujemy o tym, czy wypłacamy pieniądze w sposób automatyczny, czy trafia to do dalszej obsługi – wyjaśnił.
Logika leżąca u podstaw rozwiązania nie jest skomplikowana: za analizę dokumentacji, która napływa do ubezpieczyciela, odpowiada zbudowany w tym celu model oparty o graf dla ubezpieczeń medycyny w obszarze ubezpieczeń. Materiały podlegają też analizie syntaktycznej i semantycznej. Dane trafiają do specjalnego silnika decyzyjnego, który na koniec zwraca wynik pozwalający ocenić sposób dalszego procedowania zgłoszenia – automatyczna wypłata lub dalsza ręczna obsługa. W pierwszym przypadku proces jest realizowany bez udziału dodatkowej osoby.
– W dokumentacji szukamy wszelkiego rodzaju chorób, uszkodzeń na ciele czy innych czynników. Wyszukujemy kluczowe słowa, sekwencje, analizujemy kontekst, a następnie – na bazie tego wszystkiego – w odpowiedzi dostajemy tabelę, w której wykazane jest, jaki procent uszczerbku przekłada się na jakie pieniądze – opisywał Mirosław Deja.
Analiza zawiera też wskaźnik (scoring), który mówi, z jaką pewnością wynik został dostarczony. – Uznajemy, że jeżeli scoring jest powyżej 90 proc., to zapada decyzja o automatycznej wypłacie pieniędzy. Zakładamy, że poziom jakości scoringu jest na tyle wysoki, że nie potrzeba jakiejkolwiek dodatkowej obsługi manualnej, weryfikacji czy sprawdzenia.
Na dzisiaj w 54 proc. przypadków scoring wynosi powyżej 90 proc., co znaczy, że proces jest realizowany całkowicie automatycznie.
O tym, kiedy zgłoszenie nie jest kwalifikowane do automatycznej obsługi, decyduje szereg wyłączeń. Kluczowa jest odpowiednia jakość dokumentów – jeżeli skany są nieczytelne, uniemożliwia to przeprowadzenie automatycznej analizy. Jeżeli dokumentacja jest napisana ręcznie, zawsze trafia na ścieżkę manualną, do dodatkowej weryfikacji przez człowieka. Zastosowano też słowniczek wyrazów „zabronionych”, np. alkohol – wystąpienie ich w dokumentacji oznacza konieczność dodatkowej weryfikacji.
Likwidator szkody obsługujący ścieżkę manualnej weryfikacji zgłoszenia również ma ułatwione zadanie – nie musi czytać całej dokumentacji, niejako „na tacy" dostając szczegółowe informacje, co z tej dokumentacji wynika.
Automatyzacja procesów analitycznych oznacza, że w skali miesiąca całkowicie automatyczną ścieżkę przechodzą tysiące case'ów klientów. Uwolnienie capacity pracowników w tej skali zapewnia firmie znacznie szersze możliwości obsługowe. Z perspektywy operacyjnej operacje, które wcześniej wymagały dużo czasu – w bardziej złożonych przypadkach zajmowało nawet do dwóch tygodni – dziś, dzięki automatyzacji, zajmują średnio… pięć minut. – Ten czas liczymy od momentu, kiedy dokumentacja do nas dociera, do momentu, kiedy jest decyzja i finalna informacja o wypłacie albo „wpuszczeniu” wyniku na ścieżkę manualną – zaznaczył Mirosław Deja.
Automatyzacja obsługi roszczeń to nie jedyne obszary, w których Uniqa stosuje rozwiązania analizy danych i sztucznej inteligencji. Jest jeszcze m.in. obszar wirtualnych asystentów i obszar dynamic pricing, gdzie algorytmy dostosowują ofertę cenową do klienta, personalizując ją w oparciu o wiele atrybutów i parametrów. – Mamy sporo dodatkowych rozwiązań w obszarze samoobsługi roszczeń. Szkody majątkowe, zarówno mieszkaniowe, jak i samochodowe, mogą być w pełni obsłużone przez użytkownika z wykorzystaniem aplikacji, zdjęć, analizy tych zdjęć i wykorzystania wszelkiego rodzaju algorytmów sztucznej inteligencji z wyceną i automatyczną wypłatą – dodał przedstawiciel Uniqa.
Ubezpieczyciel stosuje też co-piloty – w dwóch wymiarach, wsparcia procesów wytwarzania oprogramowania i wsparcia standardowej pracy osób w obszarach obsługowych. Warto też wspomnieć o obszarze fraud detection, który dotyczy wykrywania wszelkiego rodzaju podejrzanych operacji i transakcji.
Z dużej chmury – duża hurtownia
W strategii Alior Banku ważne miejsce od początku istnienia organizacji zajmowały duże wolumeny danych, przetwarzane na potrzeby personalizacji i omikanałowości. Do wspierania tych procesów stosowana jest hurtownia danych. Teradata jest platformą służącą do gromadzenia, składowania, przetwarzania i udostępniania danych w raportach oraz zasilania systemów analitycznych i operacyjnych.
Ograniczone możliwości rozwoju, przedłużający się czas przetwarzania danych, utrudniona skalowalność i ograniczone możliwości budowy kolejnych modeli, sprowokowały pytanie „co dalej?" – wspominał Mateusz Stefański
Transformacja chmurowa jest jednym z filarów naszej strategii. W ramach tej strategii przeprowadziliśmy pierwszy na tak dużą skalę w polskim sektorze finansowym projekt migracji hurtowni danych do chmury publicznej. Migracja hurtowni to był pierwszy krok w modernizacji całej naszej architektury danych. Przyjęta strategia “Cloud First” optymalizacji posiadanych technologii on-premise skutkuje minimalizacją długu technologicznego. Każdy nowy system jest oceniany pod kątem możliwości wdrożenia w chmurze publicznej jako podstawowej technologii.
Projekt zrealizowano w ciągu roku, z czego trzy miesiące trwał przetarg i wybór technologii, kolejne trzy – negocjacje kontraktów z Teradatą i Microsoftem. Fizyczna migracja z testami ciągłości działania i bezpieczeństwa trwała sześć miesięcy. – Wdrożyliśmy chmurowy model operacyjny z trzema mechanizmami mitygacji ryzyka: technologicznym, procesowym i organizacyjnym. Wypracowany model wprowadził do zapisów umów serwisowych Teradata’y i Microsoft’u zabezpieczenia, dla zapewnienia naszym klientom bezpieczeństwa i funkcjonalności – podkreśla Mateusz Stefański.
Elementem procesu migracji było równoległe ewidencjonowanie i przegląd źródeł danych dla HD Teradaty, co pozwoliło sprawnie przepiąć schematy i modele zasilania danych. Przy okazji uporządkowane i ustandaryzowane zostały strumienie danych.
Zakończenie migracji nastąpiło w marcu 2024 roku. Pierwsze modele analityczne zostały wprowadzone na nowym rozwiązaniu w ciągu pierwszych dwóch, trzech tygodni od zmiany.
Migracja hurtowni danych w Alior Banku była pierwszym tak dużym projektem w sektorze bankowym, wymagającym pełnej notyfikacji KNF – podkreśla przedstawiciel Alior Banku. To szczególnie istotne z tego powodu, że po analizie we wstępnej fazie projektu okazało się, że notyfikacji podlegają dwie usługi chmur publicznych, a nie jedna: Terarada VantageCloud i Microsoft Azure. – Dziś mamy rozwiązanie przygotowane do regulacji DORA (rozporządzenie o operacyjnej odporności cyfrowej, unijny akt prawny zaostrzający wymogi bezpieczeństwa cyfrowego sektora finansowego – red.) – dodaje Mateusz Stefański.
W toku migracji udało się w krótkim czasie przemieścić dziesiątki terabajtów danych, a rezultat operacji to ponadto migracja danych archiwalnych, rezygnacja z technologii fizycznych na rzecz chmurowych oraz 40 proc. oszczędności na koszcie backupu. Rozwiązanie jest o tańsze od rozwiązań on-premise i zapewnia bankowi elastyczność pozwalającą na sprawne zarządzanie. Tuż po wdrożeniu hurtowni w chmurze osiągnęliśmy skokowy wzrost wydajności procesów krytycznych w niej realizowanych. Średnio to o ok. 45 proc. krótszy czas przetwarzania, co oznacza szybsze dostarczanie danych do analityków i szybsze podejmowanie decyzji.
Ogólnie rzecz biorąc, Alior Bank, dzięki migracji danych do chmur Teradata VantageCloud i Microsft Azure zapewnił sobie szereg korzyści, w tym możliwość efektywnego modelowania zarządzania ryzykiem klienta, funkcje przetwarzania danych z użyciem zaawansowanej analityki wsparcie dla naszych procesów związanych ze sztuczną inteligencją, jak również dla rozwiązań CRM, aby jeszcze lepiej personalizować ofertę dla naszych klientów.
Bliźniak w kotłowni
Skala i sposób funkcjonowania dużych urządzeń przemysłowych powodują, że nie można z nimi dowolnie eksperymentować – istnieje ogromne ryzyko zaburzenia działania a nawet tragicznej w skutkach awarii. Każda modyfikacja środowiska produkcyjnego czy procesu jest dodatkowo bardzo kosztowna i brakuje do tego dobrych środowisk testowych. Idealnie nadają się do tego tzw. cyfrowe bliźniaki, czyli wirtualne kopie fizycznego obiektu.
Cyfrowe bliźniaki to nie są symulatory. Buduje się je tak, by posiadały komunikację ze swoim oryginalnym, rzeczywistym odpowiednikiem – tłumaczył w trakcie swojej prelekcji Leszek Maśniak, prezes firmy KUNCAR. Tworzy się komputerowy model systemu, ale podłącza się go w kilku kluczowych punktach do fizycznego, aby mógł obserwować świat rzeczywisty. Ponieważ taki cyfrowy model jest znacznie tańszy i nie wiążą się z nim ryzyka produkcyjne, można w nim przeprowadzać modyfikacje i eksperymenty, takie jak przebudowa linii, zmiana receptur, czy przedawkowanie paliwa, aby sprawdzić, czy spodziewana poprawa jest prawdopodobna a zmiana bezpieczna – dodał.
Takiego bliźniaka zaprojektował KUNCAR na potrzeby Przedsiębiorstwa Energetyki Cieplnej - Gliwice. Partnerem projektu był Instytut Technik Innowacyjnych Łukasiewicz-EMAG w Katowicach; w modelach matematycznych i programowaniu pomagała warszawsko-białostocka firma DS360, a w opracowywaniu rozwiązań SCADA KUNCAR współpracował ze spółką Sevitel.
Bliźniak to nie byle jaki, bo cyfrowa kopia kilkunastometrowego kotła grzewczego o mocy 70MW. W PEC Gliwice funkcjonują trzy kotły pyłowe, z których jeden ma już cyfrowego brata. Konsola kotła wirtualnego wygląda podobnie, jak pulpity sterownicze kotłów fizycznych. Obecność wszystkich manipulatorów, zegarów i przełączników miała zapewnić operatorom ciepłowni identyczne doświadczenia z użytkowania.
Nasza zabawka pracuje, jak ja to nazywam, w trybie małpowania. Jest wtedy podłączona do automatyki rzeczywistego kotła, sprawdza ustawienia wprowadzone przez operatora, duplikuje te parametry i… udaje spalanie – barwnie opisywał CEO KUNCAR. Drugi tryb pracy bliźniaka to tryb szkolenia. – Odłączamy wtedy bliźniaka od kotła rzeczywistego i operator po prostu prowadzi eksploatację i sam nastawia parametry. To może służyć szkoleniu, sprawdzeniu umiejętności zawodowych ale też doskonaleniu procedur eksploatacyjnych. Można wtedy bezkarne testować różne scenariusze szukając poprawy ekonomiki – dodawał.
Ponieważ aparatura kotła generuje ogromne ilości danych, ich przetworzenie i analiza wymaga specjalistycznych rozwiązań, pomagających dostrzec związki przyczynowo-skutkowe. Bliźniaka wyposażono w silnik analityczny, modele uczenia maszynowego, modele fizykalne i przemysłowe bazy danych typu historian.
Projekt realizacji cyfrowego bliźniaka zakończył się udanie. Osiągnięto 99 proc. dokładności modelowania dla stanów statycznych i 95 proc. dla stanów dynamicznych dla odwzorowania pięciu głównych parametrów termodynamicznych kotła.
Gotowi na AI Act?
Na zakończenie sesji prelekcji dr Artur Bogucki z SGH omówił przyjęte niedawno rozporządzenie AI Act i przedstawił, z czym wiąże się jego wprowadzenie dla podmiotów, które tworzą, implementują i wprowadzają na rynek modele sztucznej inteligencji. Rozporządzenie jest bowiem bardzo charakterystycznym aktem prawnym, ponieważ na pierwszy rzut oka wygląda na bardzo techniczną i szczegółową regulację, czego można byłoby spodziewać się po regulacji sektorowej.
Tymczasem, jak podkreśla prawnik, aktu nie można analizować i interpretować wyłącznie poprzez artykuły i jego technokratyczną treść. – AI Act ujednolici reguły dotyczące tworzenia oraz wprowadzania na rynek modeli sztucznej inteligencji we wszystkich państwach członkowskich. Dotyczy on głównie poziomów ryzyka i tego, w jaki sposób i w jakim kontekście są implementowane modele sztucznej inteligencji – wyjaśniał.
AI Act dotyczy wszystkich uczestników łańcucha dostaw i łańcucha wartości przedsiębiorstwa. Przyjęta w rozporządzeniu definicja AI jest definicją szeroką, bazującą na definicji OECD, i dotyczy systemu uczenia maszynowego. Te systemy uczenia maszynowego są „wrzucone” w strukturę ryzyka. Struktura ryzyka nie polega na tym, co jest w danym modelu, tylko w jakim kontekście dany model jest wykorzystywany – minimalne, limitowane i wysokie ryzyko. I właśnie na tej ostatniej kategorii praktycy i przedsiębiorcy muszą się najbardziej skupić.
Klasyfikacje można znaleźć w aneksach do rozporządzenia: informacji na temat modeli podwyższonego ryzyka należy szukać w aneksie drugim, a wysokiego ryzyka – w trzecim.
Jednym z największych wyzwań związanych z rozporządzeniem AI Act jest właśnie metoda przypisywania kategorii ryzyka do posiadanych modeli. – Definicje, które są tam użyte, są tak generalne i potencjalnie zmienne na przestrzeni czasu, że na ten moment nie mamy pojęcia, w jaki sposób z dużą pewnością rzeczywiście przypisać jakoś kategorię do danego modelu, chyba, że coś jest bardzo oczywiste – dodawał badacz.
Rozporządzenia nie będzie można stosować bez całej sfery nowych standardów. Firmy będą musiały poczekać na to, aż AI Act „obrośnie” standardami i innymi dodatkowymi aktami, ale również kulturą prawną, nie tylko na temat samego rozporządzenia, ale samego ekosystemu związanego z gospodarką cyfrową. – Standardy prawdopodobnie nie zostaną „dowiedzione” do 2026 roku, kiedy będziemy musieli już je zastosować do AI Act, dlatego sugeruje się wykorzystanie istniejących standardów międzynarodowych typu ISO – podkreślał dr Bogucki.
Aby przygotować własne wdrożenia AI zanim akt wejdzie w życie, firmy mają ok. dwa lata. To czas, który należy przeznaczyć na dogłębną analizę aktualnych projektów, ustalenie, jakimi modelami dysponujemy i jakie modele tworzymy. Organizacje muszą weryfikować, pod jaką kategorię dane modele podpadają oraz stworzyć swój własny, wewnętrzny system zarządzania ryzykiem.
Dodatkowo zaczną się pojawiać w państwach członkowskich tak zwane regulatory sandboxes, gdzie będzie można testować w warunkach kontrolowanych modele przed wypuszczeniem ich na rynek. Firmy będą mogły testować rozwiązania i modele opisane w aneksie nr 3 rozporządzenia w warunkach eksperymentalnych przez rok.
Jeżeli chodzi o polską legislację, regulacje czy przepisy wykonawcze związane z AI Act, to Artur Bogucki nie spodziewa się ich wcześniej niż w drugiej połowie 2025 roku. – Niedawno zakończyły się prekonsultacje i Ministerstwo Cyfryzacji ogłosiło, że powstanie jeden organ nadzoru. Nie wspomniano o tym, czy będzie organ notyfikujący. Istnieje podejrzenie, że organ notyfikujący zostanie zaimplementowany razem z organem nadzoru, co mijałoby się z celem rozporządzenia i byłoby prawdopodobnie niespójne z literalnym brzmieniem samych przepisów – wskazywał.
O programie
Data Excellence to program wymiany doświadczeń w zakresie wykorzystania danych. Zapoczątkowany w 2022 r., obejmuje organizowane cyklicznie sesje strategiczne oraz warsztaty online. Rejestracja na kolejną sesję, zaplanowaną na 18 września, już trwa.
Partnerami programu są firmy Ab Initio Software, Amazon Web Services, Hewlett Packard Enterprise, IBM, Goldenore, Murdio, Infinite Services i Snowflake.
Więcej informacji na stronie programu: cionet.com/dataexcellence.
These Stories on CIONET Poland
No Comments Yet
Let us know what you think