Program

Zapraszamy Cię do udziału w spotkaniu uczestników społeczności CIONET, w trakcie którego porozmawiamy jak projektować architekturę i bezpieczeństwo AI w sposób, który nadąża za realnym ryzykiem, a nie tylko za planem wdrożenia.

Do zobaczenia.

Restauracja Dock19 by Mateusz Gessler

ul. Wybrzeże Kościuszkowskie 43C

Warszawa

09:00 - 10:30
Dyskusja merytoryczna
  • Gdzie w architekturze AI występuje dziś realna widoczność, a gdzie zaczyna się „czarna skrzynka” – na poziomie interakcji, modeli i danych?
  • W którym momencie organizacja orientuje się, że AI stała się problemem biznesowym: przy skardze użytkownika, audycie, incydencie czy dopiero po eskalacji?
  • Które mechanizmy bezpieczeństwa w środowiskach AI działają operacyjnie, a które pozostają wyłącznie deklaracją projektową
  • Jak sprawdzić, że AI popełniła błąd, naruszyła politykę lub wygenerowała nieakceptowalne ryzyko – i jak szybko można zareagować?

W DYSKUSJI WEZMĄ UDZIAŁ:

 

 

AI trafia dziś do organizacji szybciej, niż powstają zasady jej kontroli. Modele działają, dane krążą, interfejsy są wystawione – a odpowiedzi na pytania „kto za to odpowiada?”, „co realnie widzimy?” i „kiedy reagujemy?” często pojawiają się dopiero po problemie.

 

W praktyce oznacza to, że AI zaczyna funkcjonować poza klasycznymi ramami bezpieczeństwa aplikacji i danych. Tradycyjne podejścia nie dają dziś wystarczającej widoczności ani kontroli nad tym, co dzieje się na styku użytkownika, modelu i danych w czasie rzeczywistym.

 

W trakcie CIONET Executive Roundtable przygotowanego wspólnie z F5 zastanowimy się, jak projektować architekturę i bezpieczeństwo AI w sposób, który nadąża za realnym ryzykiem, a nie tylko za planem wdrożenia. Skupimy się na decyzjach, które pozwalają wykrywać i ograniczać błędy oraz nadużycia AI w momencie ich wystąpienia, a nie po fakcie.

 

Wątki do dyskusji

 

  • Gdzie w architekturze AI występuje dziś realna widoczność, a gdzie zaczyna się „czarna skrzynka” – na poziomie interakcji, modeli i danych?

  • W którym momencie organizacja orientuje się, że AI stała się problemem biznesowym: przy skardze użytkownika, audycie, incydencie czy dopiero po eskalacji?

  • Które mechanizmy bezpieczeństwa w środowiskach AI działają operacyjnie, a które pozostają wyłącznie deklaracją projektową?

  • Jak sprawdzić, że AI popełniła błąd, naruszyła politykę lub wygenerowała nieakceptowalne ryzyko – i jak szybko można zareagować?

 

PARTNER SPOTKANIA