Kwiecień w TRIBES pokazał organizacje działające pod rosnącą presją zmian w obszarach HR, IT i bezpieczeństwa. Wspólnym mianownikiem wszystkich dyskusji była konieczność przejścia od podejścia reaktywnego do bardziej świadomego i systemowego zarządzania – zarówno kosztami, jak i technologią oraz danymi.
Jawność wynagrodzeń, rosnące koszty infrastruktury, automatyzacja CI/CD, DevSecOps czy zarządzanie ryzykiem w łańcuchu dostaw IT – we wszystkich tych tematach wybrzmiewało to samo napięcie: między transparentnością, kontrolą i skalowalnością.
Organizacje coraz częściej opierają swoje decyzje na danych i automatyzacji, jednocześnie redefiniując rolę ludzi, procesów i odpowiedzialności. Transformacja przestaje być projektem technologicznym – staje się sposobem zarządzania złożonością biznesu.
I być może właśnie to jest dziś najważniejsza zmiana: nie to, jakie technologie wdrażamy, ale jak bardzo jesteśmy gotowi żyć w systemach, które są coraz bardziej przejrzyste, powiązane i… bez możliwości powrotu do „starego porządku”.
Spotkanie TLC People, otwarte przez Iwonę Jaszczyńską (Diagnostyka), skupiło się na przygotowaniach firm do wdrożenia dyrektywy o jawności wynagrodzeń i jej realnych konsekwencjach organizacyjnych.
Choć obowiązki raportowe wejdą w życie dopiero w kolejnych latach (pierwsze raporty w 2027), najbliższe miesiące są kluczowe. Firmy intensywnie porządkują struktury stanowisk, ujednolicają opisy ról i doprecyzowują kompetencje, aby zidentyfikować i zamknąć luki płacowe, zanim staną się one przedmiotem roszczeń pracowników.
Dyskusja pokazała, że sama transparentność to nie tylko kwestia danych, ale także silny czynnik wpływający na zachowania pracowników. Może zwiększać rotację i napięcia – szczególnie tam, gdzie pojawia się poczucie niesprawiedliwości. Dlatego kluczowe staje się oparcie rozmów o wynagrodzeniach na wartości stanowiska, kompetencjach i jasnych kryteriach, a nie na porównaniach między osobami.
Wyraźnie wybrzmiało, że zmiana musi objąć całą organizację, nie tylko HR. Menedżerowie potrzebują narzędzi i przygotowania do prowadzenia trudnych rozmów oraz uzasadniania decyzji płacowych. Coraz częściej wspierają ich w tym systemy i dashboardy, które porządkują komunikację i ograniczają uznaniowość.
Przykłady z rynku – zarówno z sektora prywatnego, jak i publicznego – pokazały, że największym wyzwaniem pozostaje finansowanie wyrównań oraz redefinicja roli premii i systemów motywacyjnych. Jednocześnie organizacje takie jak Eurocash wykorzystują transparentność jako narzędzie do budowania ścieżek kariery i spójnego zarządzania rozwojem.
Wniosek jest jednoznaczny: jawność wynagrodzeń przestaje być projektem compliance, a staje się impulsem do głębokiej transformacji organizacyjnej.
Spotkanie Tribes dotyczyło wpływu gwałtownych wzrostów cen sprzętu IT, niedoborów komponentów oraz zmian w modelach licencjonowania i chmurowych na strategie IT w organizacjach.
Uczestnicy zgodzili się, że główne przyczyny obecnej sytuacji to globalny popyt napędzany przez AI, ograniczenia produkcyjne u kluczowych dostawców pamięci oraz rosnąca dominacja hyperscalerów. Skutkuje to szybkim wzrostem cen i skróceniem cykli dostępności sprzętu.
Organizacje reagują w różny sposób: część planuje zakupy z dużym wyprzedzeniem, część inwestuje mimo wzrostów, inne wykorzystują chmurę jako bufor elastyczności. Wspólnym mianownikiem jest jednak ograniczenie zakupów pod presją krótkoterminowych ofert.
Silnie wybrzmiały działania optymalizacyjne: wydłużanie życia sprzętu, ponowne wykorzystanie starszych zasobów, redukcja niepotrzebnych inwestycji oraz bardziej świadome zarządzanie infrastrukturą. W wielu firmach rośnie też znaczenie transparentności kosztów IT i ich przypisania do biznesu.
W obszarze dostaw i licencji podkreślono rosnącą niepewność, krótsze oferty oraz przejście na modele subskrypcyjne. W odpowiedzi część organizacji negocjuje długoterminowe blokady cen usług chmurowych i wzmacnia dywersyfikację dostawców.
Chmura coraz częściej pełni rolę bufora kosztowego i operacyjnego, szczególnie przy ograniczonej dostępności hardware’u. Jednocześnie uczestnicy wskazywali na potrzebę budowy modeli hybrydowych.
Zwrócono również uwagę na ryzyka bezpieczeństwa związane z utrzymywaniem starszego sprzętu bez wsparcia producentów.
Wnioski spotkania wskazują na trwałe przejście do modelu zarządzania IT opartego na elastyczności, optymalizacji kosztów i aktywnym zarządzaniu ryzykiem.
Nie przegapcie najważniejszych informacji! Nagranie ze spotkania czeka na naszej platformie.
Spotkanie otworzył Grzegorz Rębacz, podkreślając, że omawiany model CI/CD nie jest studium sukcesu, lecz praktycznym efektem kilkuletniej transformacji w dużej organizacji regulowanej. Celem dyskusji była wymiana doświadczeń i konfrontacja podejść, a nie prezentacja idealnego rozwiązania.
Transformacja rozpoczęła się około sześć lat temu w środowisku obejmującym setki aplikacji i znaczący dług technologiczny. Zamiast natychmiastowego przejścia do CI/CD, organizacja rozbiła zmianę na etapy i skupiła się najpierw na uporządkowaniu delivery oraz automatyzacji wcześniejszych faz, w tym środowisk testowych. Produkcja pozostaje chroniona „złotą bramką” i pełnym zestawem testów regresyjnych.
Model jest hybrydowy – ok. 30% wdrożeń działa on-demand, reszta nadal w dużych release’ach. Kluczowym miernikiem dojrzałości stała się częstotliwość wdrożeń (DORA), rozumiana jako wskaźnik realnego przepływu zmian, a nie tylko deploymentu.
Silny nacisk położono na shift-left – przeniesienie testów jak najbliżej developmentu i budowanie zaufania biznesu do automatycznych testów. Efektem jest wysoka skuteczność, ale też wyzwania związane ze skalą i kosztami testów end-to-end.
W dyskusji pojawiły się różne podejścia do CI/CD w skali enterprise: budowa własnych narzędzi (np. orkiestracja release’ów), kontekstowe podejście do bezpieczeństwa (SAST, SCA, częściowo DAST), oraz ograniczenia wynikające z legacy i zależności między zespołami.
Kluczowe bariery do pełnego release-on-demand to: testy E2E, biurokratyczne gate’y, środowiska oraz zależności organizacyjne. Jednocześnie podkreślono, że celem nie jest narzucenie 60-minutowego cyklu, ale możliwość jego osiągnięcia tam, gdzie jest potrzebny.
Wniosek końcowy był spójny: tempo transformacji CI/CD w dużych organizacjach zależy mniej od technologii, a bardziej od legacy, sposobu pracy zespołów oraz zdolności do upraszczania procesu delivery bez utraty kontroli i bezpieczeństwa.
W nowoczesnym developmencie bezpieczeństwo nie jest osobnym etapem, lecz integralną częścią całego cyklu życia aplikacji – od repozytoriów kodu, przez proces developmentu, aż po reakcję na krytyczne podatności.
Podczas sesji omówiliśmy, gdzie dokładnie Security „wchodzi” w codzienną pracę zespołów. Kluczowe znaczenie ma już etap pracy z repozytoriami – to tam kontrola dostępu, struktura gałęzi i jakość code review realnie wpływają na poziom ryzyka.
Następnie skupiliśmy się na procesie developmentu, gdzie bezpieczeństwo powinno być wbudowane w CI/CD: automatyczne skanowanie zależności, analiza kodu i ciągłe monitorowanie komponentów open source stają się standardem, szczególnie w kontekście zagrożeń typu zero-day.
Ważnym elementem jest też zdolność organizacji do szybkiej reakcji na podatności – ich identyfikacja, ocena wpływu i sprawne wdrażanie poprawek bez destabilizacji systemów.
Podkreśliliśmy również znaczenie kultury bezpieczeństwa. Dojrzałe zespoły traktują Security jako wspólną odpowiedzialność, a nie zadanie wyspecjalizowanej grupy.
W efekcie bezpieczeństwo staje się nie dodatkowym procesem, lecz stałym elementem sposobu pracy, który bezpośrednio wpływa na odporność całej organizacji.
Łańcuch dostaw IT stał się jednym z kluczowych wektorów ryzyka cyberbezpieczeństwa. Współczesne organizacje funkcjonują w złożonych ekosystemach opartych o cloud, SaaS, AI, open source i integratorów, co sprawia, że granice odpowiedzialności są coraz bardziej rozmyte.
Podczas spotkania Security Tribe Leadership Circle, z udziałem Patryka Gęborysa, CISO PZU S.A., dyskusja skupiła się na tym, gdzie realnie tracimy kontrolę oraz jak w praktyce zarządzać ryzykiem dostawców w skali.
Najważniejsze obserwacje były jednoznaczne: regulacje (np. DORA, NIS2) porządkują wymagania, ale nie zwiększają faktycznej kontroli. Wiele zależy nadal od deklaracji vendorów, a pełna weryfikacja wszystkich elementów łańcucha dostaw jest w praktyce niewykonalna.
W efekcie „zarządzanie ryzykiem dostawcy” staje się nie checklistą, lecz ciągłym podejmowaniem decyzji i kompromisów. Kluczowe obszary utraty kontroli to cloud i SaaS (model shared responsibility), integracje AI, partnerzy technologiczni oraz zależności open source.
Wnioski ze spotkania wskazują, że dojrzałe podejście nie polega na próbie pełnej kontroli, ale na świadomym mapowaniu ryzyka, jego segmentacji oraz akceptacji miejsc, gdzie kontrola jest z definicji ograniczona.
Spotkanie poświeciliśmy praktycznym wdrożeniom AI i automatyzacji w wsparciu IT oraz przejściu od reaktywnej obsługi incydentów do podejścia opartego na analizie i eliminacji źródeł problemów.
Jednym z kluczowych tematów była analiza narzędzi do grupowania i klasyfikacji zgłoszeń serwisowych, które pozwalają identyfikować powtarzalne problemy i wspierać zarządzanie problemami na dużą skalę. Rozwiązania te wykorzystują AI do przetwarzania treści zgłoszeń, załączników i metadanych, co umożliwia szybsze wykrywanie trendów i obszarów wymagających interwencji.
Podkreślono różnice w podejściu organizacji: część koncentruje się na warstwie frontowej (interakcja z użytkownikiem i automatyzacja obsługi), a część na warstwie backendowej (analiza przyczyn i eliminacja problemów). Wniosek był spójny – oba podejścia są komplementarne i powinny działać równolegle.
Istotnym wątkiem była także rola zarządzania wiedzą oraz standaryzacji zgłoszeń jako warunku skutecznej automatyzacji. Wskazano również na potrzebę mierzenia efektów wdrożeń poprzez wskaźniki operacyjne i biznesowe, takie jak SLA, liczba zgłoszeń czy poziom automatycznego rozwiązywania problemów.
Całość dyskusji potwierdziła, że dojrzała automatyzacja IT wymaga połączenia AI, analityki i uporządkowanych procesów, aby realnie zmniejszać liczbę incydentów, a nie tylko przyspieszać ich obsługę.
Nagranie ze spotkania jest już dostępne! Zobaczcie kluczowe wnioski i czerpcie inspirację do ulepszania procesów w firmach.
Sławomir Brzozowski, Piotr Cyliński i Krzysztof Doliński z PZU przedstawili ewolucję strategii chmurowej organizacji – od podejścia „cloud smart” wdrożonego w 2019 r. do obecnego modelu „inteligentnej chmury”, opartego na skalowaniu, automatyzacji i standaryzacji środowisk.
Kluczowym kontekstem pozostają wymagania regulacyjne (KNF, UODO, UE), które determinują tempo i sposób migracji. PZU konsekwentnie rozwija automatyzację (CI/CD, FinOps, observability) oraz „pakiety startowe” dla zespołów, aby przyspieszyć i ujednolicić wdrożenia.
Migracja realizowana jest w czteroetapowym modelu – od analizy, przez testy i wdrożenie produkcyjne, po optymalizację i wyłączanie środowisk on-premise. Równolegle rozwijane są kompetencje zespołów i samoobsługa deweloperska.
W dyskusji podkreślono też główne wyzwania: kontrolę kosztów (szczególnie logów), złożoność automatyzacji, wymagania compliance oraz zarządzanie środowiskami testowymi. Google Cloud wykorzystywany jest głównie w kontekście AI, przy dominującej roli Azure.
Całość wskazuje na dojrzały, etapowy model transformacji chmurowej, w którym kluczowe znaczenie mają automatyzacja, kontrola ryzyka i rozwój kompetencji organizacji.
Nie mogliście być z nami na żywo? Nagranie ze spotkania jest już dostępne na platformie. Sprawdźcie kluczowe wnioski i potraktujcie je jako impuls do dalszych usprawnień w Waszych firmach.
A co nas czeka w najbliższym miesiącu?
TRIBES Day 2026 to wyjątkowe spotkanie społeczności CIONET, skupione na roli sztucznej inteligencji w organizacjach. Liderzy IT i biznesu wspólnie przyjrzą się temu, co w AI jest realną wartością, a co tylko obietnicą.
To dzień praktycznych rozmów, wymiany doświadczeń i inspiracji – bez teorii, z naciskiem na konkretne wdrożenia i wyzwania w firmach. Szczegóły wydarzenia dostępne są na stronie wydarzenia.