Multicloud - najlepsze praktyki

Published by Redakcja CIONET Polska
July 10, 2023 @ 4:23 PM

Środowisko wielochmurowe zapewnia organizacjom dostęp do szerokiego wachlarza nowoczesnych usług informatycznych. Tyle tylko, że multicloud – bez precyzyjnego planu opisującego sposób wdrożenia oraz kompetentnych zespołów odpowiedzialnych za jego właściwą konfigurację i obsługę – może przysporzyć więcej problemów niż pożytku. Nad kwestiami elastyczności, skalowalności, optymalizacji kosztów i redukcji ryzyka infrastruktury wielochmurowej zastanawiali się prelegenci sesji strategicznej programu CIONET Cloud Excellence.

Spotkanie, zorganizowane wokół tematu „Multi Cloud. Scenariusze wykorzystania, korzyści i wyzwania”, było piątą kolejną sesją strategiczną Cloud Excellence, a zarazem zapoczątkowywało drugi rok programu. Celem projektu Cloud Excellence, zainaugurowanego w czerwcu 2022 r., jest wymiana wiedzy i doświadczeń w zakresie adaptacji chmury obliczeniowej w polskich przedsiębiorstwach. W programie uczestniczy już ponad 200 osób, reprezentujących ponad 110 firm. Partnerami programu są PwC, HP Enterprise, Amazon Web Services, Red Hat i Accenture.

Tym razem w roli prelegentów wystąpili dwaj przedstawiciele Polpharmy: Jakub Gomuła, szef działu Operacji IT i Infrastruktury Chmurowej i Michał Kurasiński, szef działu Aplikacji Korporacyjnych i Analityki; Wojciech Struski, Chief IT Architect w Ringier Axel Springer Tech; Maciej Chwiłoc, CTO w Grupie Pracuj.pl oraz Piotr Bubieńczyk, Head Of Digital & Cloud Ecosystems Department w BNP Paribas.

Chmura – jedna czy wiele?

O korzyściach płynących z chmury nie trzeba dziś nikogo przekonywać – dość wspomnieć o możliwości szerokiej automatyzacji procesów, począwszy od infrastruktury jako kodu po wszelkie procedury, wdrażanie i wycofywanie aplikacji, monitoring i skalowanie usług. Chmura, odpowiednio zoptymalizowana i skonfigurowana, to środowisko nowocześniejsze i łatwiejsze w modernizacji niż infrastruktura utrzymywana lokalnie.

52934294296_3c74953e60_k

Czym zaś jest multicloud? Wojciech Struski z RASP zdefiniował wielochmurowość jako strategię IT używania różnych chmur od różnych dostawców celem optymalizacji wybranych parametrów, takich jak koszty, elastyczność i wydajność przy jednoczesnym ograniczeniu zależności od pojedynczego kontrahenta (tzw. vendor-lock) i migracji ryzyk w zakresie bezpieczeństwa.

Multicloud jest postrzegany jako rozwiązanie dla tych organizacji, którym zależy na dużej elastyczności środowiska IT, możliwości dynamicznego przełączania usług i optymalizacji kosztów. Środowisko wielochmurowe to, z punktu widzenia działu informatyki, znakomite narzędzie umożliwiające dostarczanie biznesowi potrzebnych mu usług i produktów. Każdy z dostawców hiperskalowych ma ciekawe, innowacyjne technologie, a dostępne w ich ofercie rozwiązania różnią się stopniem złożoności i wydajności. Organizacja może na bazie tych zasobów uszyć infrastrukturę skrojoną do własnych potrzeb.

Środowisko multicloud można budować w sposób hybrydowy – jako połączenie chmury prywatnej, utrzymywanej lokalnie i publicznej; heterogeniczny – gdy korzystamy z usług kilku dostawców w różny sposób (przykładowo, u jednego uruchamiamy aplikacje SaaS, drugi dostarcza nam platformy w modelu usługowym). Wreszcie, homogenicznie – gdy używamy chmur różnych dostawców, a wszystkie te usługi spina zarządczo warstwa abstrakcji.

Krytyczne znaczenie strategii

Ten, kto zabiera się za multicloud, musi mieć jednak jasno określoną strategię – a za taką, zdaniem Wojciecha Struskiego, z pewnością nie można uznać wyrywkowego testowania „na próbę” różnych rozwiązań. Decydenci powinni wiedzieć, jaki punkt na osi chmurowego rozwoju ma osiągnąć organizacja, we współpracy z jakim usługodawcą (usługodawcami) to zrobić i przy użyciu jakich narzędzi – również w zakresie zarządzania i rozliczania.

52934445254_45e15c163c_k

Każdy dostawca bowiem w specyficzny sposób implementuje poszczególne rozwiązania i technologie, co utrudnia tworzenie wspólnych, spójnych standardów dla zespołów programistycznych czy DevOps. A brak standaryzacji przekłada się z kolei na większe trudności w zarządzaniu infrastrukturą. – Trzeba wyważyć korzystanie z nowych usług; są ciekawe rzeczy, których wytworzenie w on premise byłoby bardzo kosztowne, ale trzeba pilnować standardów, żeby korzystać z chmury w sposób uporządkowany i bezpieczny – przypominał także w swoim wystąpieniu Piotr Bubieńczyk z PNB Paribas.

Bank jest zresztą modelowym przykładem, jak się należy zabrać się do opracowywania strategii chmurowej. Nie dość, że jest to instytucja regulowana wewnętrznie, jako podmiot w grupie, to jeszcze podlega nadzorowi rynkowego regulatora. A oprócz usług chmury publicznej używa też rozwiązania chmury prywatnej, utrzymywanego we francuskim centrum danych.

Aby w bezpieczny, zgodny z regulacjami sposób korzystać z chmury publicznej, organizacja ustaliła wymagania odnośnie chmury, zbierając je u wszystkich interesariuszy. – Z tych wymagań powstała roadmapa, jak je zaadresować, gdzie uwzględnić i jak im wszystkim uczynić zadość: zaktualizowaliśmy procesy, procedury, dokumentację i pracowaliśmy nad warstwą technologiczną, czyli zbudowaniem u dwóch dostawców publicznych landing zones zgodnych z tymi wymaganiami: na poziomie bezpieczeństwa, procesów, struktury organizacyjnej – wspominał Piotr Bubieńczyk.

52934294661_a7e3d9d2a0_k

„W chmurę trzeba umieć”

Chociaż z roku na rok liczba organizacji, które z sukcesem wdrożyły u siebie chmurę, rośnie, to tempo adaptacji tego modelu informatyki nie przebiega tak sprawnie, jak można by tego oczekiwać. W firmach, które przez lata budowały i rozwijały stos technologiczny w oparciu o rozwiązania on-premise, pielęgnowano odpowiadające im kompetencje: utrzymanie serwerów, systemów operacyjnych czy bazodanowych. Tymczasem przejście do chmury wiąże się z przekazaniem (zleceniem) tej odpowiedzialności na dostawcę usług chmurowych.

Jeżeli już „tkwimy: w rozwiązaniach SaaS, nie potrzebujemy kompetencji, które do tej pory pieczołowicie budowaliśmy w naszym IT. Potrzebujemy innych kompetencji, a właściwie takich, które wcześniej były mało kojarzone lub nie kojarzone wcale z IT – mówił Michał Kurasiński z Polpharmy.

Chodzi o takie umiejętności, jak na przykład komunikacja, współpraca interdyscyplinarna, projektowanie procesów biznesowych, zarządzanie tożsamością w chmurach rozproszonych czy ekstrakcja i analiza danych. Na takim właśnie zestawie umiejętności opiera się sukces chmurowej transformacji, stąd organizacje rozpoczynające chmurową podróż muszą obrać właściwą drogę pozyskania tych kompetencji z rynku.

Pierwsza to kupienie ich – czyli zatrudnienie odpowiednich ludzi. Rozwiązanie, które w teorii powinno być najłatwiejsze w realizacji, wcale takie nie jest. Powodem takiego stanu rzeczy jest brak ludzi – a raczej niewystarczająca ich liczba, biorąc pod uwagę potrzeby rynku. Problem luki pracowniczej w obszarze IT jest dziś nawet poważniejszy, niż jeszcze trzy czy cztery lata temu. Po pandemii, gdy tryb pracy zdalnej na stałe zagościł w większości organizacji, rywalizacja między firmami o najlepiej wykwalifikowanych pracowników z poziomu lokalnego czy regionalnego przeniosła się na poziom globalny. Specjalistów chcą zatrudniać wszyscy.

52934741473_bd719bfabf_k

Inne podejście to outsourcing IT (usługi wynajmu pracowników stały się w ostatnich latach ważnym elementem rynku usług informatycznych). To jednak strategia krótkoterminowa – wynajem sprawdzi się do realizacji pojedynczego projektu czy wdrożenia, ale nie rozwiązuje problemu braku kompetencji w organizacji w dłuższej perspektywie. Po zakończeniu wdrożenia wynajęci specjaliści trafiają do innych projektów w innych organizacjach, a nawet przy wykupieniu usługi wsparcia technicznego kompetencje te formalnie wciąż pozostają poza firmą.

W poszukiwaniu jednorożców

Trzecia strategia to budowanie kompetencji wewnętrznych. Większa złożoność infrastruktury wielochmurowej oznacza wyższą barierę wejścia dla nowych pracowników, niezależnie czy są oni rekrutowani z zewnątrz czy organizacja szkoli obecny personel. Ludzie muszą zdobyć dużo większy zakres wiedzy, uczyć się specyfiki różnych sieci, zależności, nietypowych konfiguracji – onboarding trwa dłużej i jest droższy, wymaga zupełnie innego zestawu kompetencji. Pracowników do obsługi środowisk multicloud trzeba wyszkolić w kilku różnych platformach. – Tu nie ma ścieżek na skróty, jest to długi, pracochłonny, mozolny i kosztowny proces, ale z drugiej strony to jedyna strategia, która kieruje nas w miejsce, w którym będziemy za kilka lat: prawie wyłącznie w rozwiązaniach SaaS – mówił Michał Kurasiński.

Wystarczająco trudno zrekrutować osoby kompetentne w jednej chmurze, a co dopiero mówić o trzech. To jak szukanie jednorożców. Co więcej, jak już ich zrekrutujemy, pojawia się problem ich utrzymania – to osoby znające swoją wartość, wiedzą, że są ważne dla firmy. W IT „nie ma ludzi bez pracy", to oni mogą sobie wybierać firmy. To oznacza, że zespół pracujący na multicloudzie będzie droższy – wskazywał z kolei Maciej Chwiłoc z Grupy Pracuj.pl.

Z drugiej strony, gdy już firma znajdzie – lub wyszkoli – tego „jednorożca”, znacząco rośnie jej atrakcyjność jako pracodawcy. Organizacja daje w ten sposób sygnał, że rozwój i samodoskonalenie pracowników są dla niej ważne, co ułatwia przyciąganie talentów – ludzie, a zwłaszcza przedstawiciele branży IT, chętniej przyjdą do firmy, w której będą mogli się rozwijać. – To trochę rekompensuje koszty budowania zespołów – podsumował.

Nie zapominajmy o bezpieczeństwie…

W dyskusji o chmurze, a tym bardziej o multicloudzie, nie da się pominąć kwestii bezpieczeństwa. Security to niezmiernie ważny aspekt, bo inna dla każdej chmury będzie konfiguracja (hardening), będą pojawiać się elementy specyficzne. Do tego dochodzą kwestie dostępów, uprawnień, zarządzania tożsamością… dostawcy mają własne polityki w tym zakresie. – Zarządzanie kontami to podstawa. Musimy wiedzieć, kto je zestawił, kto ma do nich dostęp i w jaki sposób; szyfrowanie wszystkiego w świecie chmurowym jest absolutnie konieczne, bardzo ważne są audyty i procedury security, asynchronicznie sprawdzające, czy to, co robimy jest sensowne – podkreślał Wojciech Struski.

52934741593_eae40b2881_k

Podobnego zdania był Maciej Chwiłoc. – Z monitoringiem nie jest łatwiej, każde rozwiązanie ma własny dedykowany panel. Używanie trzech różnych paneli nie jest wygodne, a trzeba jeszcze monitorować połączenia między dostawcami, więc szybko dochodzimy do konieczności budowy własnych rozwiązań lub pozyskania ich od firm trzecich, co kosztuje czas (wdrożenie) lub pieniądze (zakup) – mówił. Można, co prawda, zaopatrzyć się w dedykowane narzędzie do zarządzania firmy trzeciej i zintegrować je z posiadanymi systemami, ale oznacza to kolejny wydatek – i kolejny do rozwiązania problem z kategorii „kosztowej”.

…i kosztach

Tymczasem powiedzieć, że cenniki dostawców nie są proste w analizie, to nic nie powiedzieć. A jak już połapiemy się w gąszczu opcji i zrozumiemy, za co płacimy i jak można te koszty zoptymalizować, musimy liczyć się ze zmianami cennika, wynikającymi z aktualizacji ofert bądź zwykłej rynkowej rywalizacji dostawców. Miesiąc w miesiąc trzeba monitorować koszty nie jednej, a kilku chmur. Zazwyczaj na starcie środowiska wielochmurowe okazują się nieco droższe niż tradycyjne, „pojedyncze” chmury, a już na pewno ich wdrożenie pochłania więcej zasobów i energii.

Na szczęście w końcowym rozrachunku środowiska wielochmurowe mogą być bardziej opłacalne.

Gdy już zrozumiemy cenniki, będziemy w stanie wyłapać pewne różnice i niuanse. Mogąc zmieniać usługi i elastycznie je alokować między różnymi centrami danych zobaczymy, że pewne typy maszyn opłaca się stawiać u jednego dostawcy, inne u drugiego. To na pewno jakiś potencjał, choć trudny do wykorzystania – wskazał Maciej Chwiłoc.

Dodał jednak od razu, żeby nie patrzeć na multicloud wyłącznie przez pryzmat kwot na fakturze, ale starać się szukać usług dodatkowych. – Dostawcy, aby wypromować swoje usługi, chętnie zaoferują nam programy certyfikacji, szkolenia czy wsparcie w prowadzeniu projektów. To dodatkowy benefit, którego nie da się na papierze wykazać, ale łatwo go zmonetyzować – podkreślił przedstawiciel Pracuj.pl.

Z pewnością istnieją sposoby na kontrolę kosztów chmurowych. W Polpharmie, jak wymieniał Jakub Gomuła, sprawdza się np. rezerwacja zasobów, limity kosztowe zużycia zasobów i alerty o ich przekroczeniu, bieżąca kontrola uruchomionych usług, uruchamianie serwerów testowych i deweloperskich na życzenie (nie działają cały czas, a tylko wtedy, gdy są potrzebne, np. kilka godzin w tygodniu) czy dynamiczne zarządzanie mocą obliczeniową. Każdemu wedle potrzeb.

Kolejna sesja strategiczna programu CIONET Cloud Excellence odbędzie się 12 września.

Więcej informacji o programie: 

LINKEDIN: https://www.linkedin.com/showcase/cloudexcellencepl/

No Comments Yet

Let us know what you think

You May Also Like

These Stories on CIONET Poland

Subscribe by Email