Dzisiaj każda duża firma chce mieć dostęp do danych, analizować dane i budować swoją strategię w oparciu o dane. Nie wszyscy jednak w pełni zdają sobie sprawę, czego potrzeba, żeby być data-driven – pisze w komentarzu dla CIONET Polska Łukasz Świst, Country Manager Polska & CEE w Software AG.
Krytycznym elementem każdej strategii biznesowej budowanej w oparciu o dane i gotowej na wykorzystanie sztucznej inteligencji jest odpowiednie podejście do integracji: takie, które pozwala na zapewnienie sobie szybkiego i bezproblemowego dostępu do danych.
Najpierw bowiem trzeba poradzić sobie z zapewnieniem dostępu i zarządzaniem ogromnymi ilościami danych, napływającymi bardzo szybko z dużej liczby źródeł. To wymaga praktycznej wiedzy, doświadczenia i oczywiście odpowiedniej technologii.
Dzięki temu w coraz bardziej hybrydowych środowiskach informatycznych można płynnie przenosić dane między brzegiem sieci, centrum danych a chmurą, analizować je, dostrzegać trendy, formułować wnioski i prognozy. W konsekwencji można optymalizować procesy biznesowe, tworzyć nowe doświadczenia, podnosić poziom obsługi klienta i zwiększać innowacyjność.
Osiągnięcie tego wymaga jednak dzisiaj integrowania nie tylko aplikacji, ale także systemów rozproszonych i niezliczonych ilości czujników tworzących internet rzeczy. Trzeba bowiem pobierać dane z różnych urządzeń, przy wykorzystaniu różnych protokołów i zmagać się z wieloma, różnymi problemami technicznymi. Jednym z najbardziej typowych problemów w środowiskach produkcyjnych są rozproszone systemy, na które składają się urządzenia o małej mocy przetwarzania i niewielkiej ilości pamięci, które na dodatek dostępne są jedynie okresowo.
Coraz większym zainteresowaniem cieszy się edge computing. Jednym z powodów jest przekonanie, że ze względu na rozproszenie, ten model przetwarzania jest bezpieczniejszy od cloud computingu. Niezależnie od tego pozwala on niewątpliwie na przyspieszenie przetwarzania danych generowanych w określonej lokalizacji, a co za tym idzie zwiększenie szybkości reakcji, ale także eliminuje konieczność przesyłania danych do ośrodka centralnego czy chmury – w pewnych scenariuszach, wszędzie tam, gdzie łączność bywa ograniczona, jest to absolutnie kluczowe.
Platforma Cumulocity IoT łączy edge computing z chmurą i przenosi architekturę IoT na zupełnie nowy poziom. Umożliwia szybkie analizowanie danych w miejscu, w którym powstają i pozwala na ograniczanie kosztów związanych z przesyłaniem danych. Jedną z jej największych zalet jest samoobsługowy charakter, który umożliwia proste i szybkie podłączania nowych urządzań bez konieczności kodowania. Cumulocity jest otwarta, umożliwia integrację z innymi systemami firmowymi i oferuje scentralizowane zarządzanie oraz wysoki poziom bezpieczeństwa.
Szybkość reakcji ma znaczenie
Edge computing i lokalne przetwarzanie danych pochodzących z czujników i urządzeń IoT to nie jedyne wyzwanie. Kolejnym jest analizowanie danych w czasie rzeczywistym, żeby możliwe było reagowanie na zdarzenia w ultrakrótkim czasie. Tak działa analiza strumieniowa. W obliczu obserwowanej ostatnio prawdziwej eksplozji nowych źródeł danych, pozwala ona na analizowanie i integrowanie informacji w czasie rzeczywistym z czujników IoT, urządzeń mobilnych, rynków internetowych czy wewnętrznych systemów transakcyjnych.
Przy wykorzystaniu analityki strumieniowej można tworzyć zaawansowane systemy monitorowania dowolnych strumieni danych czy danych o zdarzeniach, wykrywać i analizować równocześnie wzory pochodzące z różnych źródeł, reagować na zdarzenia w tej samej chwili, w której mają miejsce. Co więcej, reakcje można automatyzować, w taki sposób, żeby były realizowane bez angażowania człowieka.
Silnik analizy strumieniowej Apama, który został zintegrowany w Cumulocity, ale może współpracować z dowolnymi innymi systemami, to technologia pochodząca ze świata finansów, gdzie była wykorzystywana do automatyzowania transakcji wysokiej częstotliwości. Apama obserwuje przepływające dane i poszukuje określonych kombinacji zdarzeń. Może to być np. sekwencja – zostaje odkręcony zawór, wzrasta temperatura, a nie zmienia się jakiś inny parametr. Dzięki temu jesteśmy w stanie bardzo szybko, praktycznie w czasie rzeczywistym reagować na zmianę sytuacji. Streaming analytics może także tworzyć agregaty danych i przekazywać je do dalszego przetwarzania.
Dodatkową korzyścią płynącą z wykorzystania analizy strumieniowej może być ograniczenie ilości zapisywanych danych. Jeśli analizujemy dane na bieżąco, możemy zapisywać tylko to, co jest istotne. Można w ten sposób filtrować dane. To przydatne np. w sytuacji, kiedy jeden z czujników ulegnie awarii i zaczyna przesyłać odczyty pomiarów, które w sposób ewidentny są błędne.
Wsparcie dla analityki
Niektórzy uczestnicy dyskusji na spotkaniu CIONET Being data-driven zwracali uwagę na potrzebę posiadania narzędzi, które pozwalałyby użytkownikom biznesowym wykorzystywać w prosty sposób sztuczną inteligencję i analitykę predykcyjną w produkcji procesowej bez angażowania zespołów data science. Takie narzędzia są dostępne na rynku.
Dobrym przykładem jest narzędzie Software AG o nazwie Trendminer. Umożliwia ono np. szefowi czy inżynierowi produkcji, osobie o wykształceniu technicznym, która dobrze zna proces produkcji oraz wykorzystywane urządzenia, ale nie posiada wiedzy stricte informatycznej, na inteligentne monitorowanie oraz prognozowanie wielu istotnych zdarzeń m.in. końca bieżącego cyklu produkcyjnego czy jego wyników jakościowych.
Wykorzystując tego typu narzędzia możemy zapanować nad danymi i wykorzystywać je bez większego wysiłku. W konsekwencji jesteśmy w stanie budować biznes, który jest właśnie data-driven, czyli – jak to ujął jeden z uczestników dyskusji na czacie – biznes oparty na przetwarzaniu danych, obudowany różnymi narzędziami i systemami, dzięki którym zyskujemy realną wartość biznesową na wielu płaszczyznach.
Takie „narzędzia i systemy”, których przykłady podane są wyżej, ma w swojej ofercie Software AG. Co więcej, pozwalają one zmierzyć się z kluczowymi wyzwaniami, o których także mówili uczestnicy spotkania CIONET: otwartym dostępem do danych, demokratyzacją dostępu oraz współpracą z biznesem.
Dzięki nim, biznes ma bowiem otwarty dostęp do danych oraz może samodzielnie ich używać, bez tłumaczenia innym czego dokładnie potrzebuje i na jakie pytania szuka dziś odpowiedzi. I wtedy organizacje zaczynają być właśnie data-driven.
Łukasz Świst, Country Manager Polska & CEE, Software AG.
These Stories on CIONET Poland
No Comments Yet
Let us know what you think