„Pragnienie wdrożenia innowacji w oparciu o nowe techniki analityczne nie wystarczy. Musimy wskazać benchmark: poziom, do którego będziemy się porównywać i odnosić nasze wyniki, by określić, czy osiągnęliśmy sukces” – mówi w rozmowie z CIONET-em Tomasz Dziedzic, CTO w Linux Polska, z którym rozmawialiśmy przy okazji spotkania społeczności CIONET Polska „Being Data Driven”.
Czy analityka danych to dla biznesu jeszcze szansa czy już konieczność?
Ciężar innowacji z pewnością przeniósł się w stronę wykorzystania posiadanych informacji w sposób pełniejszy i bardziej efektywny, co pozwala wytwarzać produkty i narzędzia pożyteczne tak dla nas, jak i klientów. To nawet nie kwestia wartości biznesowej płynącej z eksploatacji danych, bo taka bezsprzecznie istnieje. Widzę tu duże rozbieżności w podejściu firm do tematu wydobywania wartości z danych.
Po jednej stronie mamy identyfikację potrzeb klientów i konieczność ich zaspokojenia, po drugiej – coś, co nazwałbym „syndromem młotka”. To dążenie do stosowania narzędzi, które dają przewidywalne, łatwe do zrozumienia i opisania efekty.
Na bazie doświadczeń w obszarze computer vision, analizy obrazu czy tworzenia robotów o zdolnościach percepcyjnych – uważam, że często potrzeby analityczne wyrażane są nie poprzez to, co chce się osiągnąć na poziomie procesu, zysku klienta czy szeroko pojętej nowej jakości, tylko właśnie poprzez potrzebę posiadania „młotka”.
Dochodzi do sytuacji, że ktoś na siłę próbuje w danym kontekście wykorzystać technikę analityczną, która po zastanowieniu się nie pasuje i nie rokuje szans na ekstrakcję wartości.
Dla odmiany, wielu klientów myśli, że analityka wymaga gigantycznych nakładów finansowych, bo skoro nie mogą znaleźć odpowiedniego rozwiązania, sądzą, że należy je stworzyć od zera.
Jak optymalnie realizować analitykę danych – w ramach konkretnych projektów, adresujących określone zagadnienie/problem czy powinien to być proces ciągły, wpleciony i działający niejako pod powierzchnią wszystkich operacji?
Jeżeli istniejący system rozbudowuje się o nowe elementy, powinno się traktować problem na zasadach projektowych, ponieważ są to nowe kompetencje w organizacji i nowe, wcześniej nieznane zawiłości procesowe. Na poziomie Project Management Office czy portfela projektów powinna działać inicjatywa koordynująca modernizacje, ponieważ w jednym projekcie zbiera się doświadczenia, które mogą przydać się w pozostałych.
Co istotne, te nowe elementy trzeba pielęgnować, gdyż stają się częścią stosu technologicznego.
Raz stworzony algorytm może po pewnym czasie przestać działać, gdy zmienią się realia biznesowe, a reguły, które stosuje, choć poprawne w przeszłości, nie mają zastosowania do dzisiejszych okoliczności.
Takie rzeczy trzeba monitorować, a algorytmy karmić współczesnymi danymi, co do których spodziewamy się, że zawierają rozwiązania problemów bieżących.
Szczególną rolę w tej strukturze odgrywa biznes, który powinien jasno przedstawić swoje oczekiwania w zakresie analityki. Pragnienie wdrożenia innowacji w oparciu o nowe techniki analityczne nie wystarczy. Musimy wskazać benchmark: poziom, do którego będziemy się porównywać i odnosić nasze wyniki, by określić, czy osiągnęliśmy sukces. Często tym benchmarkiem jest coś, co się określa jako „Human-level Performance” – odniesienie możliwości algorytmu do ludzkich umiejętności radzenia sobie z danym zadaniem.
Jak to jest z tą dojrzałością biznesu do bycia data-driven? Różnym organizacjom wychodzi to z różnym skutkiem…
Załóżmy, że nie mówimy o prostych analizach statystycznych, rzeczach powszechnych od kilkunastu lat ale o bardziej nowoczesnych analizach, gdzie mamy wiele reguł i chcemy budować modele, które z pomocą uczenia maszynowego potrafią odzwierciedlać bardzo złożone zjawiska.
Ogólnie to złożony problem. Zdarza się, że firmy próbują rozwiązać niewłaściwe problemy. Na przykład tkwią w mylnym przekonaniu, że do rozwiązania problemu potrzeba ich danych, choć problem jest na tyle generyczny, że nie dotyczy ich konkretnych procesów czy reguł występujących w ich specyficznej implementacji biznesu. Albo przeciwnie, poszukują też gotowych rozwiązań, choć ich organizacja czy branża jest tak specyficzna, że konieczne są własne, autorskie reguły biznesowe – a więc i ich dane.
Znam przypadki, gdy firma zamówiła opracowanie algorytmu albo sprawdzenie jego założeń, po czym okazało się, że nie jest w stanie dostosować swoich procesów – jest nieprzygotowana na możliwości, jakie oferuje technologia, bo oznaczałoby to, że dany proces biznesowy trzeba układać na nowo. Mało znam firm, gdzie technologia wychodzi zwycięsko ze starcia z inercją organizacyjną.
Jak w takim razie biznes powinien przygotować się, by korzystać z dobrodziejstw analityki?
Są projekty z dużym potencjałem, ale i takie, gdzie technologia jest jeszcze za droga a bardziej pragmatycznie opłaca się zadanie wykonać rękami człowieka. Na pewno łatwiej znaleźć w dziale biznesowym kogoś z wieloletnim doświadczeniem, kto zna procesy firmowe od podszewki i objaśnić mu charakterystykę, zastosowania i zasady praktycznego wykorzystania nowych technik analitycznych niż wymagać od programisty, by poznawał reguły i procesy na przykład w branży ubezpieczeniowej.