Bez zrozumienia, czym są dane i do czego w istocie służą, nie da się zbudować modelu organizacji data-driven ani wykorzystać pełnego potencjału tkwiącego w gromadzonych przez organizację zasobach.
Postęp technologiczny, jaki dokonał się na przestrzeni ostatnich lat, pozwala przedsiębiorstwom sprawnie zarządzać posiadanymi zbiorami danych i przetwarzać je zgodnie z bieżącymi potrzebami biznesowymi. Ale technologia, choć ważna, nie jest jedynym składnikiem przepisu na skuteczną analitykę. Problemy w tworzeniu efektywnych modeli analitycznych nie zniknęły – jak je rozwiązywać, by decyzje biznesowe opierały się na faktach a nie tylko na intuicji?
Odpowiedzi na to pytanie szukaliśmy w trakcie spotkania Tech Camp „Od danych do sztucznej inteligencji: analityka, która zwiększa efektywność biznesu”, z udziałem ekspertów i przedstawicieli społeczności CIONET.
Architektura
Podstawowa rzecz to oczywiście zbiór danych – trzeba je pozyskiwać, składować i systemowo podchodzić do kontroli ich jakości. Danych poprawnie wygenerowanych, pozbawionych błędów (technicznych, składniowych, itp.) nie trzeba poprawiać na dalszych etapach analiz. Wrażenie, że błędy stosunkowo łatwo i tanio usunąć na etapie przygotowywania raportów, jest złudne, gdyż w perspektywie długoterminowej koszt tych działań kumuluje się.
Tymczasem, jak zauważył Mariusz Gromada, szef departamentu Customer Intelligence w Banku Millenium, problemem organizacji jest niewystarczająca „atencja do architektury danych”. O ile potrzeba nowoczesnej, skalowalnej i elastycznej architektury informatycznej jest już w dzisiejszych czasach dobrze rozpoznana (i zaadresowana), to podobne myślenie o architekturze danych nie jest już tak powszechne.
To kamyczek do ogródka głównie działów biznesowych. W obszarze IT zapisuje się dane o szerokim spektrum zdarzeń – tzw. logi są konieczne do nadzoru nad prawidłowym działaniem i bezpieczeństwem infrastruktury IT – co więcej, odbywa się to w sposób zautomatyzowany. W wypadku biznesu musi nastąpić specyfikacja wymagań na określone typy danych.
Wdrożenie dobrej architektury danych zajmuje więcej czasu i więcej kosztuje, ale to inwestycja w przyszłość – po to, żeby nowe rozwiązania były bardziej skalowalne lub tańsze. Chodzi o to, by dane nie były wytwarzane z przypadku. Trzeba biznes na to uwrażliwiać – przekonuje Gromada.
Warto mieć świadomość, że dziś powstaje znacznie więcej modeli analitycznych, a specjaliści od danych potrzebują do ich budowy coraz więcej informacji z różnych źródeł. Dlatego tak ważne, by data scientists byli osadzeni w strukturach biznesowych, a nie technologicznych. Znając problemy biznesowe, mogą łatwiej określić swoje zapotrzebowanie.
Kadry
Skoro mowa o data scientists – zdaniem Arkadiusza Wiśniewskiego, Information Architecture Leadera w IBM CEE, kluczowy warunek jaki powinien spełniać data scientist to ciekawość; osoby, które pracują z danymi, muszą odczuwać „głód wiedzy” i być ciekawe własnego biznesu.
„Dobre zrozumienie biznesu, analityka jest po to, by coś w biznesie poprawiać, czy to w sprzedaży, marketingu czy w obsłudze klienta. Do tego powinniśmy mieć ludzi ciekawych świata, będących w stanie definiować hipotezy, które się potem weryfikuje – bo dane są po to, by weryfikować hipotezy. Nawet jeżeli pytanie jest źle postawione, możemy szybko dostać odpowiedź, która negatywnie zweryfikuje hipotezę. A wtedy stawiamy następną – tłumaczy Wiśniewski.
Uczestnicy spotkania CIONET Tech Camp przyznają jednak, że o ile wdrażanie nowych technologii jest łatwe, to już praca z ludźmi – niekoniecznie. Wprowadzanie do użytku zaawansowanych rozwiązań analitycznych wymaga modyfikacji procesów biznesowych, a tu zahaczamy już o ludzkie przyzwyczajenia czy wręcz niechęć do zmian. Praca z danymi opiera się na zrozumieniu, gdzie tkwi ich wartość – przekonuje Eliza Staniszkis, Data Platform & System Integration Department Director, Nationale-Nederlanden Poland.
Integracja
Tworzeniu hurtowni danych często towarzyszy podejście zakładające, że wystarczy skierować do niej strumień danych ze wszystkich systemów źródłowych. W rzeczywistości do dopiero połowa sukcesu, bowiem zasoby w hurtowni wymagają odpowiedniej integracji. Należy ją rozumieć nie tylko jako połączenie źródeł danych ale również jako zespolenie ekosystemu danych z systemem produkcyjnym. Taka pętla zwrotna pozwala szybko podjąć działanie na podstawie zgromadzonych danych.
Modele predykcyjne powinny wchodzić w interakcję z procesami produkcyjnymi w czasie rzeczywistym – podkreśla Mariusz Gromada. „Hurtownia ma swoje dane ale ekosystem danych powinien móc – za pośrednictwem otwartych interfejsów API – uzyskiwać informacje z procesów. Pozwoli to tworzyć modele behawioralno-aplikacyjne, na przykład łączyć profile klienta z ich zachowaniem, rejestrowanym przez procesy, w których uczestniczą i w tym samym czasie zwracać informację do tego procesu” – dodaje.
Dobre praktyki
Wiemy już, że – co do zasady – im pojemniejszy zasób danych, tym większa szansa na zbudowanie efektywnego modelu analitycznego i że repozytoria danych muszą być utrzymane w odpowiednich ryzach jakościowych. W razie konieczności wprowadzenia spójnego podejścia do zarządzania danymi warto odwołać się do branżowych rekomendacji, takich jak „Data Management Body of Knowledge”. To opracowany przez Data Management Association przewodnik po dobrych praktykach zarządzania danymi, kompendium, procesów i frameworków, z którego organizacje mogą wybierać i implementować te najbardziej adekwatne do ich potrzeb.