Wtorek, 15 czerwca, 9:10-09:30 | SCENA 1 & SCENA 2
Wtorek, 15 czerwca, 9:30-9:50 | SCENA 1
Piotr Markowski
Prezes
NetWorkS!
Wtorek, 15 czerwca, 9:30-9:50 | SCENA 1
CEO N! podzieli się doświadczeniami z projektów w McKinsey, T-Mobile i Networks jak postawić analitykę w centrum działań i efektywnie dowieść rezultat. W jaki sposób ustawić proces, aby przy ograniczonych zasobach i kompetencjach nie tracić czasu. Jak wybrać zespół do projektu i motywować do rezultatów, których się nie spodziewali osiągnąć?
#BusinessValue
Wtorek, 15 czerwca, 09:50-10:10 | SCENA 1
Marcin Choiński
Head of Data & AI
Grupa TVN Discovery
Wtorek, 15 czerwca, 09:50-10:10 | SCENA 1
Obecnie większość firm w ramach transformacji cyfrowej rozwija, buduje, albo planuje budować swoją gałąź online. Celem prezentacji będzie odpowiedź na pytanie, jakie komponenty są kluczowe dla zbierania i zarządzania danymi z obszaru digital oraz jak strategicznie ułożyć je w jeden spójny ekosystem. Innymi słowy, jak sprawić aby tracking, CMP, DMP/CDP, Marketing Automation, e-Commerce, rekomendacje, adtech, (i inne), oraz nasz Data Management/Data Governance łączyły się w jedną spójną strategię danych, wspierającą naszą strategię biznesową. A wszystko to w kontekście znaczących zmian otoczenia prawnego (GDPR/e-Privacy), technologicznego (odejście od 3-rd party cookies), oraz społecznego (zmieniająca się świadomość użytkowników dot. ich danych).
Wtorek, 15 czerwca, 10:10-10:30 | SCENA 1
Bogumił Kamiński
Dyrektor programowy
Data Connect
Wtorek, 15 czerwca, 10:10-10:30 | SCENA 1
W trakcie prezentacji omówię metodykę CRISP-DM, która jest obecnie jednym z najpopularniejszych standardów procesu wytwórczego modeli analitycznych. Wyróżnia ona następujące podstawowe etapy prac: zrozumienie biznesu, zrozumienie danych, przygotowanie danych, modelowanie, ocena i wdrożenie. Dla każdego etapu procesu przedstawię typowe problemy jakie mogą się pojawić w trakcie jego realizacji oraz omówię, jak sobie można z nimi radzić.
Wtorek, 15 czerwca, 10:30-10:50 | SCENA 1
Wtorek, 15 czerwca, 10:50-11:10 | SCENA 1
Mariusz Gromada
Director, Head of Customer Intelligence Department
Bank Millennium
Wtorek, 15 czerwca, 10:50-11:10 | SCENA 1
Jaka mentalność cechuje najlepszych data scientistów? Jakie techniczne i biznesowe umiejętności powinni oni posiadać? Jakie role i zadania delegować jednostkom specjalnym ds. danych? Jaki sprzęt umożliwi maksymalne wykorzystanie kompetencji komandosów od danych? Jakie cele realizować? Jak się upewniać, że osiągamy zamierzone efekty? W trakcie prezentacji opowiem jak dobrać i rozwijać zespół oraz jak zbudować i zorkiestrować CRM Analityczny.
.
.
Wtorek, 15 czerwca, 10:10-10:30 | SCENA 2
Grzegorz Bartler
CTO
Netia
Grzegorz Szałachwij
Kierownik Zespołu Analiz Data Mining
Polkomtel
Wtorek, 15 czerwca, 10:10-10:30 | SCENA 2
Potrzeba zwiększania satysfakcji klienta ze współpracy z markami Grupy Cyfrowy Polsat zakłada skuteczną personalizację komunikacji marketingowej. Elementem tej strategii jest chęć wdrożenia kompleksowego podejścia do rekomendacji produktów Grupy. Celem prezentacji i dyskusji jest wymiana wiedzy jak można podejść do zagadnień rekomendacyjnych w zakresie środowiska, zarządzania danymi czy analityki.
Wtorek, 15 czerwca, 10:30-10:50 | SCENA 2
Jakub Kułak
Head of Data Analytics & AI Practice
Chmura Krajowa
Wtorek, 15 czerwca, 10:30-10:50 | SCENA 2
Co daje podejście multi-cloud w analityce danych? Czy warto inwestować w rozwiązania hybrid-cloud? Jakie możliwości anonimizacji i pseudonimizacji danych dają dostawcy platform chmurowych? Na te i inne pytania odpowiem podczas mojego wystąpienia na podstawie doświadczeń z projektów Chmury Krajowej.
Wtorek, 15 czerwca, 11:10-11:40 | SCENA 1 & SCENA 2
Wtorek, 15 czerwca, 11:40-12:00 | SCENA 1
Marcin Kurczab
Director of the Innovation Lab
PZU
Wtorek, 15 czerwca, 11:40-12:00 | SCENA 1
Czy innowacyjność jest zarezerwowana tylko dla startupów? Jak testować i efektywnie wdrażać najnowsze technologie w dużych organizacjach?
W Laboratorium Innowacji Grupy PZU weryfikujemy najnowsze trendy technologiczne i szukamy ich zastosowania w branży ubezpieczeniowej.
Koncentrując się na zaawansowanej analityce, cyfryzacji i nowych interakcjach z klientami tworzymy ewolucyjne i rewolucyjne projekty we współpracy z najlepszymi startupami.
W trakcie prezentacji poznasz nasz przepis na testowanie innowacji w korporacji. Zobaczysz na czym się skupiamy wdrażając rozwiązania z kategorii zaawansowanej analityki i big data.
Dowiesz się także o naszych najciekawszych projektach i o tym jakie jest nasze podejście do dylematu „make or buy”.
Wtorek, 15 czerwca, 12:00-12:20 | SCENA 1
Łukasz Grala
CEO
TIDK
Wtorek, 15 czerwca, 12:00-12:20 | SCENA 1
Rola analityki w organizacjach stale rośnie, dlatego przedsiębiorcy coraz częściej inwestują w nowoczesne platformy analityczne, by móc podejmować decyzje na podstawie twardych dowodów oraz świadomie analizować działania w firmie. Pytanie brzmi - jak odpowiednio podejść do transformacji analitycznej, by przyniosła ona same zamierzone korzyści oraz jakie powinny być cele organizacji data-driven?
Wtorek, 15 czerwca, 12:20-12:40 | SCENA 1
Tomasz Fryc
CTO
Alior Bank
Bartek Wołoszyn
Key Account Manager
SAP Polska
Wtorek, 15 czerwca, 12:20-12:40 | SCENA 1
Jak sobie poradzić z przetwarzaniem i przechowywaniem danych? podnoszenie efektywności procesów back-office? Jak identyfikować obszary w procesach biznesowych, które w pierwszej kolejności warto poddać automatyzacji? On-Premises czy w chmurze?
Odpowiedzi na te pytania z punktu widzenia szefa obszaru technologii w banku przedstawi Tomasz Fryc - CTO Alior Bank, w rozmowie z Bartłomiejem Wołoszynem, koordynatorem sprzedaży do sektora finansów i ubezpieczeń w SAP.
Wtorek, 15 czerwca, 12:40-13:00 | SCENA 1
Michał Zdunowski
Information Protection Manager
JTI
Wtorek, 15 czerwca, 12:40-13:00 | SCENA 1
Zapewnienie bezpieczeństwa danych na wszystkich etapach cyklu życia jest wyzwaniem zarówno dla zespołów Bezpieczeństwa, jak i dla właścicieli biznesowych. Dane są stale przesyłane między systemami, przy czym niektóre systemy są mniej bezpieczne niż inne. Jest coraz więcej przepisów, takich jak RODO, w których wykorzystanie danych jest ściśle kontrolowane. Zobacz, jak JTI podchodzi do bezpiecznego zarządzania danymi.
Wtorek, 15 czerwca, 11:40-12:00 | SCENA 2
Jennifer Belissent
Principal Data Strategist
Snowflake
Wtorek, 15 czerwca, 11:40-12:00 | SCENA 2
The growing data economy offers vast opportunity. Many companies want to be data-driven. Yet truly successful companies enable partners and customer to benefit from their data and insights. According to McKinsey, data collaboration will generate over $3 trillion. This presentation will explore the data economy opportunity, demonstrate how Snowflake powers data sharing ecosystems, and offer guidance on how to get started.
Wtorek, 15 czerwca, 12:00-12:20 | SCENA 2
dr Przemysław Szufel
SGH
Filip Wojciechowski
wiceprezes
Kross S.A.
Wtorek, 15 czerwca, 12:00-12:20 | SCENA 2
Kross to wiodąca marka w Europie Środkowej sprzedająca rocznie kilkaset tysięcy rowerów. Jak w każdej firmie produkcyjnej zapewnienie maksymalnej efektywności procesów produkcji i dystrybucji jest kluczowym elementem zapewniającym przewagę rynkową. W tym celu Kross S.A. zbudował rozwiązanie analityczne, które w pełni odwzorowuje te procesy, tzw. digital twin, i pozwala je optymalizować. Stworzony przez zewnętrznych ekspertów model matematyczny zawiera 4 miliony zmiennych decyzyjnych oraz ponad 100 milionów warunków ograniczających. Wykorzystanie takiego rozwiązania umożliwiło podniesienie wydajności produkcyjnej o około 25% (w stosunku do poprzedniej rekomendacji) dzięki lepszemu dopasowaniu planu produkcji do dostępności części i specyfiki czasowej popytu. W trakcie prezentacji omówione będzie jakie podejście projektowe zastosowano w celu stworzenia takiego modelu oraz jaka architektura IT zapewnia jego wymaganą elastyczność i wydajność.
Wtorek, 15 czerwca, 12:20-12:40 | SCENA 2
Monika Książek
Head of Data Science
Paweł Koźmiński
Head of BI
Play/Iliad Group
Wtorek, 15 czerwca, 12:20-12:40 | SCENA 2
Analiza danych w Play dotąd opierała się przede wszystkim na SAS. W zakresie modelowania predykcyjnego i zaawansowanej analityki postanowiliśmy wykonać zwrot w kierunku najpopularniejszych obecnie języków open source: Pythona i R. Stanęliśmy jednak przed kilkoma wyzwaniami. Jak efektywnie modelować w open source, mając dane w SAS? Jak ułatwić data scientistom przejście na nowe języki, wykorzystując ich SASowe doświadczenie, by uniknąć spowolnienia prac w trakcie nabywania nowych kompetencji? Jak zapewnić sprawną migrację istniejących modeli? Wreszcie, jakiego narzędzia użyć do operacjonalizacji modeli? Gotowego narzędzia open source czy budowanego na miarę od podstaw? Zapraszamy do zapoznania się z opracowanym przez nas hybrydowym rozwiązaniem, bazującym na SAS Vija i open sourcowych kontenerach, pozwalającym trenować i wdrażać modele w Python, R i SAS, a nawet modele mieszane.
Wtorek, 15 czerwca, 12:40-13:00 | SCENA 2
Piotr Mieczkowski
Managing Director
Fundacja Digital Poland
Wtorek, 15 czerwca, 12:40-13:00 | SCENA 2
Raport "State of Polish AI 2021" jest najbardziej kompleksowym opracowanie dla i o rynku AI w Polsce, które w syntetyczny sposób prezentuje stan rozwoju sztucznej inteligencji w Polsce. Podczas wystąpienia zostaną zaprezentowane wybrane wnioski z raportu. Dowiesz się m.in. jak wygląda stan rozwoju rynku, również w porównaniu do innych rynków europejskich, gdzie są przeprowadzane wdrożenia AI oraz z jakimi problemami podczas wdrożeń AI mierzą się spółki.
Wtorek, 15 czerwca, 13:00-13:40 | SCENA 1 & SCENA 2
Wtorek, 15 czerwca, 13:00-13:10 |SCENA 1 & SCENA 2
Jakub Maćkowiak
Big Data Architect
Core3
Wtorek, 15 czerwca, 13:00-13:10 |SCENA 1 & SCENA 2
Przetwarzanie danych jest niezbędnym i niezbywalnym element towarzyszący wszystkim projektom IT. Rozwój technologiczny ma na celu również optymalizację kosztów przetwarzania danych. Różnorodne warianty ewoluujące od posiadania infrastruktury on-premise (skalowanie pod maksymalne obciążenie), poprzez scentralizowane platformy przetwarzania danych (wykorzystujące systemy zarządzania zasobami, kolejkowanie zadań i korzystanie z faktu statystycznego rozkładu przetwarzania w czasie), aż po przetwarzanie danych w chmurze (wyraźnie zwiększające możliwości skalowania, ale idące często w parze z modelem pay-as-you-go) może być kolejnym argumentem za modernizacją stacku technologicznego w organizacji.
Wtorek, 15 czerwca, 13:10-13:20 |SCENA 1 & SCENA 2
Mariusz Rafało
Partner
Sorigo
Wtorek, 15 czerwca, 13:10-13:20 |SCENA 1 & SCENA 2
Hurtownie danych, big data, dane chmurze, dane strumieniowe, itp. - jak zarządzać przepływami danych w środowisku wielu baz danych i wielu technologii? Co jest ważne, aby zapewnić spójność i wysoką jakość danych, które są utrzymywane w różnych repozytoriach? W jaki sposób udostępniać dane dla analityki, zachowując standardy jakości i bezpieczeństwa danych, a jednocześnie dobry time-to-market? Jakie dane utrzymywać w hurtowaniach danych, jakie w data lake, a jakie dane replikować pomiędzy repozytoriami?
Wtorek, 15 czerwca, 13:40-14:40 | SCENA 1 & SCENA 2
Wtorek, 15 czerwca, 14:40-15:00 | SCENA 1
Martin Willcox
Vice President Technology
Teradata
Wtorek, 15 czerwca, 14:40-15:00 | SCENA 1
Commentators agree that we are on the cusp of an era of ubiquitous Machine Learning - yet many organisations still struggle to realise business value from their Machine Learning (ML) and Artificial Intelligence (AI) initiatives, with time-to-market and the difficulties of getting analytics out of the lab and into production frequently cited. In this presentation, we will discuss: why ubiquitous Machine Learning is a data problem and not an algorithm problem; vertical and horizontal scaling of Machine Learning; key considerations in the effective operationalisation of Machine Learning. And we will take the long view of digitisation to try and understand what will have to happen for ubiquitous Machine Learning to realise its full potential.
Wtorek, 15 czerwca, 15:00-15:20 | SCENA 1
Michał Forystek
Co-founder
Brainhint
Ireneusz Jazownik
Prezes Zarządu, KGHM Centrum Analityki
CIO, KGHM Polska Miedź SA.
Wtorek, 15 czerwca, 15:00-15:20 | SCENA 1
Jak stworzyć centrum zaawansowanej analityki bez data scientist'ów i z jakimi decyzjami powinniśmy się zmierzyć? Co daje przekazanie zadań analitycznych osobom bliższym operacjom? Czego powinniśmy oczekiwać od rozwiązań No-code AI? O tym wszystkim opowie Michał Forystek w oparciu o współpracę z KGHM Centrum Analityki.
Wtorek, 15 czerwca, 15:20-15:40 | SCENA 1
Michał Adamkiewicz
Site Reliability Engineer
OLX
Wtorek, 15 czerwca, 15:20-15:40 | SCENA 1
Podczas sesji poruszymy koncepcję towarzyszącą obydwu zagadnieniom – omówimy pokrótce charakterystykę systemów opartych na hurtowniach, jak również przedstawimy korzyści, które płyną z wdrożeń rozwiązań opartych o "Data Lake". Bazując na przykładzie OLX zostanie zaprezentowane podejście do tego tematu w oparciu o usługi AWS. Pokazywana architektura będzie stanowiła potwierdzenie, iż obydwa światy mogą funkcjonować obok siebie i uzupełniać się nawzajem. Ponadto rzucimy światło na kwestie data governance oraz data discovery.
Wtorek, 15 czerwca, 15:40-16:00 | SCENA 1
Jacek Sadowski
Head of Market Analysis
PGNiG
Wtorek, 15 czerwca, 15:40-16:00 | SCENA 1
Handlując na rynkach energii i zarządzając ryzykiem cenowym portfela aktywów energetycznych możesz zastosować różne strategie: podążać za tym co robią inni starając się to robić nieco lepiej i uzyskiwać tym sposobem niewielkie, ale dość stabilne i pewne zyski albo postawić na rozwój cen odwrotny do przewidywań innych graczy, mając szansę uzyskać ponadprzeciętny, ale obarczony dużym ryzykiem wynik. Którą drogę wybrać i jakie narzędzia analizy danych zastosować do każdej z nich? Która z nich jest prosta operacyjnie, a która trudna i czasochłonna? Jak dużo danych potrzebujesz, żeby pójść każdą z nich? W trakcie warsztatu poruszone zostaną zagadnienia związane z: Budową systemów do przechowywania i analiz danych w organizacjach, które nie są na to w pełni gotowe. Zasadnością stosowania modeli data miningowych i innych metod statystycznych na tle stosowania fundamentalnych modeli ekonomicznych i symulacyjnych. Potrzebą używania rozwijanych od przeszło 80 lat tradycyjnych modeli optymalizacyjnych, bez których wyniki modnych dziś metod data miningowych mogą okazać się mało przydatne biznesowo, a o których wiele osób dziś zapomina pod wpływem marketingu wokół data science. A to wszystko w kontekście handlu na rynku gazu i energii elektrycznej oraz przykładów zastosowań metod modelowania i analizy danych w PGNiG.
Wtorek, 15 czerwca, 14:40-15:00 | SCENA 2
.
.
Wtorek, 15 czerwca, 15:40-16:00 | SCENA 2
Wojciech Janusz
Senior System Engineer
Dell Technologies
Wtorek, 15 czerwca, 15:40-16:00 | SCENA 2
Nowoczesna technologia w medycynie kojarzona jest z zaawansowaną diagnostyką często ocierającą się o wykorzystanie sztucznej inteligencji. W tej sesji chciałbym pokazać zupełnie inne podejście do wykorzystanie dostępnych informacji w celu usprawnienia pracy całego szpitala. Jak zbierać i zarządzać informacjami oraz jak przetwarzanie ich w miejscu powstawania usprawnia procesy i rozwiązuje prawdziwe problemy.
Wtorek, 15 czerwca, 16:00-16:20 | SCENA 1 & SCENA 2
Wtorek, 15 czerwca, 16:20-16:40 | SCENA 1
Andrzej Luber
współpracownik
Tauron Obsługa Klienta
Wtorek, 15 czerwca, 16:20-16:40 | SCENA 1
Case study systemu akwizycji danych. Jak efektywnie zarządzamy dużymi wolumenami. Czy klasyczne technologie dają radę? Gdzie napotkaliśmy ograniczenia?
Wtorek, 15 czerwca, 16:20-16:40 | SCENA 2
Alex Martin
Product Manager
Google
Wtorek, 15 czerwca, 16:20-16:40 | SCENA 2
Currently data scientists want to automatically build and deploy state-of-the-art machine learning models on structured data at massively increased speed and scale. During the talk it will be discussed how AutoML can automate processing and modeling a wide range of data, including such features as unstructured text or nested fields. Also it will be explained how scientific advances of Google Brain research can be used to perform automated model architecture search and hyperparameter tuning resulting in high quality models with less effort.
Wtorek, 15 czerwca, 16:40-17:00 |SCENA 1 & SCENA 2
Adam Massey - Founder | CEO
Wit Jakuczun - CTO | Principal Data Scientist
Fourteen33
Wtorek, 15 czerwca, 16:40-17:00 |SCENA 1 & SCENA 2
AI and ML is a hot topic today. As the adoption factor grows we still meet many customers that are at the very early stage. In this talk, using examples taken from our practice, we present a pattern that we observe working with successful ML adopters in the USA The pattern, we call "AI Framework", allows successful companies to unlock all the benefits AI and ML can bring to the table. It consists of a set of processes that altogether constitute ML delivery strategy that standardize the path from ML initiative, through ML model validation to model deployment and monitoring. It also covers supporting processes like data quality and data governance altogether with data engineering and IT infrastructure development.
Środa, 16 czerwca, 9:05-09:10 | SCENA 1 & SCENA 2
Środa, 16 czerwca, 9:10-09:30 | SCENA 1 & SCENA 2
Błażej Szczecki
Wiceprezes
Bank Pekao S.A.
Środa, 16 czerwca, 9:10-09:30 | SCENA 1 & SCENA 2
Konkurencyjny rynek i zmieniające się oczekiwania klientów to dla wielu organizacji sygnał do zwiększenia wysiłków na rzecz rozwoju podejścia proklientowskiego przy jednoczesnym zachowaniu efektywności komercyjnej i kosztowej. Umiejętność wykorzystania danych i technologii to niewątpliwie silny oręż w walce o klienta, ale czy to wystarczy? Jak do tych kwestii podchodzi branża bankowa?
Środa, 16 czerwca, 9:30-9:50 | SCENA 1
Kamil Konikiewicz
Head of AI Office
PKO Bank Polski
Środa, 16 czerwca, 9:30-9:50 | SCENA 1
Czym różnią się projekty AI od klasycznych inicjatyw Data Science / Machine Learning? Jak je wdrażać i skalować, żeby nie utonąć - szczególnie w dużych i złożonych organizacjach? Jak budować i rozwijać nowe produkty oparte o AI? W trakcie prezentacji opowiem o tym, jak projektujemy i wdrażamy rozwiązania z zakresu AI w PKO Banku Polskim ze szczególnym naciskiem na wdrożenie bankowości konwersacyjnej w ramach projektu You & AI. Pochwalę się praktycznymi zastosowaniami i wynikami, ale też opowiem o ryzykach i wyzwaniach przy wdrażaniu tak zaawansowanych technologii.
Środa, 16 czerwca, 9:50-10:10 | SCENA 1
Phil Le-Brun
Director | Enterprise Strategist
AWS
Środa, 16 czerwca, 9:50-10:10 | SCENA 1
In this session we’ll share strategies and customer stories that can help you turn your company into a data-driven business by creating culture and capabilities at scale. Using actioned insights, analytics, and AI/ML, data-driven enterprises are able to better prepare for the unexpected, create new revenue streams, improve customer experiences, and increase operational efficiencies. Join this session to learn how to help your company move from believing that data is a strategic asset to achieving results.
Środa, 16 czerwca, 10:10-10:30 | SCENA 1
Bartosz Mekier
E-commerce & Sales Expert
SAP Polska
Środa, 16 czerwca, 10:10-10:30 | SCENA 1
Konieczność budowy ujednoliconego profilu klienta wynika zasadniczo z dwóch rodzajów scenariuszy. Opartych o dane, gdzie konieczne jest łączenie wielu różnych źródeł danych (e-commerce, CRM, ERP) w celu ułatwienia pracy np. marketerom, by uzyskać całościowe spojrzenie na klienta. Oraz tych bazujących na analizie, gdzie na bazie reguł segmentacyjnych profile klienckie zostają dodatkowo rozszerzone pozwalające budować bardziej spersonalizowane ścieżki klienckie , działające w czasie rzeczywistym. Podczas sesji poruszę tematy wprowadzania danych z wielu źródeł, budowania tożsamości, późniejszej segmentacji oraz operacjonalizacji ujednoliconych danych.
Środa, 16 czerwca, 10:30-10:50 | SCENA 1
Kamil Gala
Zastępca Dyrektora Departamentu Zasobów Informacyjnych i Analiz
UFG
Środa, 16 czerwca, 10:30-10:50 | SCENA 1
17 lat funkcjonowania, 30 zakładów ubezpieczeń zobowiązanych do zasilania, ponad 500 milionów danych o umowach ubezpieczenia, zdarzeniach ubezpieczeniowych i odszkodowaniach, ponad 1 miliard obsługiwanych zapytań rocznie – tak w liczbach można podsumować bazę danych o ubezpieczeniach komunikacyjnych OC p.p.m. i AC prowadzoną przez Ubezpieczeniowy Fundusz Gwarancyjny. Baza UFG to nie tylko ogromny potencjał analityczny, ale również szereg wyzwań – prawnych, organizacyjnych i technologicznych. Jak zadbać o jakość i integralność danych? W jaki sposób efektywnie przetwarzać dane za pomocą zaawansowanych metod analitycznych w celu identyfikacji ukrytych wzorców i prawidłowości? W jaki sposób szybko i skutecznie dostarczać dane i informacje zróżnicowanej grupie odbiorców – nie tylko zakładom ubezpieczeń, ale również organom ścigania? Tym właśnie zagadnieniom poświęcone jest to wystąpienie.
Środa, 16 czerwca, 10:50-11:10 | SCENA 1
Dariusz Flisiak
Managing Director, Data and Central Systems
BNP Paribas
Środa, 16 czerwca, 10:50-11:10 | SCENA 1
Dyskusja o dylematach firm średniozaawansowanych w AI, tzn. takich, które mają już zespoły, zbudowały pierwsze rozwiązania, zaczynają punktowo dostrzegać wartość i zastanawiają się jak to wykorzystać szerzej, w skali całej firmy. Porównując się z liderami, którym już się to udało, będziemy szukać przepisu na zrobienie z AI strategicznego celu, wspierającego działania rynkowe naszych firm. Porozmawiamy o roli biznesu i IT w tym wspólnym wysiłku.
.
.
Środa, 16 czerwca, 10:10-10:30 | SCENA 2
Kamil Bączyk
Principal Enterprise Security Architect
Standard Chartered
Michał Furmankiewicz
Cloud Architect
Chmurowisko
Środa, 16 czerwca, 10:10-10:30 | SCENA 2
W ramach sesji pokażemy jak podejść do analizy danych zbieranych z różnych usług chmurowych by analizować poziom zagrożeń, wykrywać incydenty czy sytuacje nietypowe w środowisku chmury publicznej. W ramach sesji nie tylko omówimy te element w sposób teoretyczny ale pokażemy element realnych wdrożeń by zachęcić Pańśtwa do dalszych eksploracji.
Środa, 16 czerwca, 10:30-10:50 | SCENA 2
Łukasz Grala
CEO
TIDK
Środa, 16 czerwca, 10:30-10:50 | SCENA 2
Według prognozy Gartnera, do 2024 r. 30% organizacji zainwestuje w platformy do zarządzania danymi, zwiększając w ten sposób wpływ na biznes oparty na zaufanych spostrzeżeniach i nowych usprawnieniach.
Data Governance to kluczowy element analityki, który wpłynie na relację w całym ekosystemie Twojej organizacji. W ramach sesji dowiesz się czym jest i jak krok po kroku zaplanować jego wdrożenie – zapraszam!
Środa, 16 czerwca, 10:50-11:10 | SCENA 2
Bartosz Kapusta
Kierownik ds. analiz
Innogy
Środa, 16 czerwca, 10:50-11:10 | SCENA 2
Zrozumienie Klienta jest kluczowe dla sukcesu organizacji, a wykorzystanie narzędzi Data Science do poznania tego zagadnienia otwiera zupełnie nowe drzwi. Na podstawie tego problemu biznesowego omówię w jaki sposób ułożyliśmy proces biznesowy od zbierania danych do ich monetyzacji, w ramach organizacji, która zaczyna swoją drogę z aktywnym korzystaniem z możliwości Data Science. Przygotowanie odpowiedniego modelu Data Science to 20% pracy. Przygotowanie ludzi, technologii i spełnienie wymagań korporacji to 80%. Również w tych proporcjach skupię się na procesie biznesowym monetyzacji danych.
Środa, 16 czerwca, 11:10-11:40 | SCENA 1 & SCENA 2
Środa, 16 czerwca, 11:40-12:00 | SCENA 1
Tomasz Brzeziński
Chief Data Scientist
iTaxi.pl
Środa, 16 czerwca, 11:40-12:00 | SCENA 1
Data-driven to jeden z terminów robiących w ostatnim czasie olbrzymią karierę, podobnie jak machine learning, data science czy AI. Co to naprawdę oznacza? Kiedy organizacja może powiedzieć o sobie, że jest naprawdę data-driven? Jakie są główne bariery rozwoju w tym kierunku?Jak mądrze stawać się data-driven?
Środa, 16 czerwca, 12:00-12:20 | SCENA 1
Robert Kroplewski
pełnomocnik Ministra Cyfryzacja ds. społeczeństwa informacyjnego
Kancelaria Prezesa Rady Ministrów
Środa, 16 czerwca, 12:00-12:20 | SCENA 2
Zmienia się paradygmat modelu zarządzania dostępem do danych. W UE kształtuje się koncepcja zaufanych przestrzeni danych, równolegle na świecie dojrzewają wzorce data trust, data banks, czy data clubs. Zwiększa się świadomość przedsiębiorstw budowania autonomii cyfrowej oraz potrzeby kształtowania suwerenności cyfrowej gospodarek. Jednocześnie kluczowe dla niepopadania w dług innowacyjny w gospodarce opartej na danych i wiedzy jest wykorzystanie funkcji re-używalności danych, dostęp do repozytoriów wiedzy czy to w procesach kooperacji czy modelach platformowej kreacji. Kluczowe staje się zapewnienie warunków dla przewagi konkurencyjnej w oparciu o wytworzoną własność intelektualną lub produkty systemowe. Stąd centralne staje się pytanie o najbardziej optymalne modele zarządzania dostępem do danych czy to wykorzystujące wzorce inteligentne, oparte na systemach teleinformatycznych, systemach dostępu do infrastruktury danych lub sieć blockchain.
Środa, 16 czerwca, 12:20-12:40 | SCENA 1
Michał Furmankiewicz
Cloud Architect
Chmurowisko
Środa, 16 czerwca, 12:20-12:40 | SCENA 1
Budowa rozwiązań klasy SIEM dla wielu dostawców chmury obliczeniowej to nie lada wyzwanie. Podczas sesji skupimy się na jednym rozwiązaniu SIEM by pokazać jak można za pomocą wbudowanych i własnych modeli ML wykrywać ataki na warstwę tożsamości, infrastruktury i sieci. Prezentacja to tylko wstęp i początek prezentacji podejścia analizy danych pod kątem wykrywania ataków i zagrożeń jakie czają się w świecie chmurowych rozwiązań.
Środa, 16 czerwca, 12:40-13:00 | SCENA 1
Michał Kot
Big Data and Consumer Insight Director
Smyk S.A.
Środa, 16 czerwca, 12:40-13:00 | SCENA 1
Jak w oparciu o grupy kontrolne oszacować wpływ komunikacji kierowanej bezpośrednio do klientów? W jaki sposób wykorzystać integrację danych, aby wspomóc proces wyboru grupy kontrolnej? Czy symulacje parametryzowane na podstawie danych pozwalają oszacować niepewność otrzymywanych wyników? W ramach prezentacji spróbujemy udzielić odpowiedzi na te pytania, omówimy, jak korzystaliśmy z danych, przedstawimy wyniki analiz i pokażemy w jaki sposób rozwiązaliśmy problem wyboru grupy kontrolnej.
Środa, 16 czerwca, 11:40-12:00 | SCENA 2
Przemysław Biecek
Vice-Dean for Research and Development
Politechnika Warszawska
Środa, 16 czerwca, 11:40-12:00 | SCENA 2
Testować, testować, testować! To świetna strategia nie tylko do walki z coronawirusem, ale też do bezpiecznego i odpowiedzialnego wdrażania rozwiązań ML/AI. Ale co testować i jak testować? Podczas prezentacji pokażę proces wyjaśnialnej analizy modelu (Explanatory Model Analysis) na przykładzie problemu wyceny (pricing) oraz modelu klasyfikacji (ryzyko ciężkiego przejścia choroby Covid). Nie zabraknie też najnowszych nowinek z obszaru XAI, czyli analizy dyskryminacji, interaktywnej eksploracji modelu oraz roli XAI w zarządzaniu cyklem życia modelu.
.
Środa, 16 czerwca, 12:20-12:40 | SCENA 2
Paweł Borkowski
CEO
Integral Solutions
Michał Dąbrowski
wicedyrektor Departamentu Controllingu i Informacji Zarządczej
mBank
Środa, 16 czerwca, 12:20-12:40 | SCENA 2
W trakcie spotkania postaramy się odpowiedzieć na poniższe pytania:
Kiedy zacząć prace nad jakością danych?
Czy prace nad jakością danych mogą poprzedzać wdrożenie Data Governance?
Czy powinno się zaczynać od procesu DG a potem przechodzić do obszaru jakości danych?
Jakie narzędzia/rozwiązania mogą wspierać jakość danych - workflow, data catalog, dedykowane narzędzie DQ, raportowanie, AI/ML?
Jak dużo rzeczy daję się automatyzować w obszarze DQ a ile musi być wykonywanych manualnie?
Czy poprawa jakości danych opłaca się organizacji?
Środa, 16 czerwca, 12:40-13:00 | SCENA 2
Damian Mazurek
CTO | Co-Founder
Chmurowisko
Środa, 16 czerwca, 12:40-13:00 | SCENA 2
Czy wiesz, że zastosowanie nowych technologii, nawet w branżach zupełnie z nimi nie związanych może przynieść ogromny zysk dla organizacji? Jeden z naszych klientów, sam się o tym przekonał. Wykorzystanie technologii kategoryzacji obrazów z wykorzystaniem mechanizmów transfer learningu i AutoML pozwoliło mu na zminimalizowanie błędów związanych z identyfikacją materiałów oraz zmniejszyło próg wejścia pracowników potrzebny do realizacji tego zadania. W trakcie szczegółowo opowiem o case study tego projektu, zastosowanych technologiach oraz biznesowych korzyściach, które nasz klient dzięki temu zyskał.
Środa, 16 czerwca, 13:00-14:40 | SCENA 1 & SCENA 2
Środa, 16 czerwca, 14:40-15:00 | SCENA 1
Aneta Ptak-Chmielewska
Chapter Lead
ING Tech Poland
Środa, 16 czerwca, 14:40-15:00 | SCENA 1
Doświadczenia z projektu wdrożenia nowej definicji default w zakresie automatyzacji walidacji modeli ryzyka kredytowego. Trudności z pozyskaniem danych i symulacji nowej definicji default. Modele dla parametrów ryzyka kredytowego. Projekt automatyzacji walidacji modeli – doświadczenia z projektu.
Środa, 16 czerwca, 15:00-15:20 | SCENA 1
Vijay Ivaturi
Chief Scientific Officer
Pumas-AI, Inc
Środa, 16 czerwca, 15:00-15:20 | SCENA 1
The end consumer of healthcare is always the patient. In the age of modern day analytics and computing, at Pumas-AI we build tools that leverage advanced modeling and simulation to directly impact patient care, either via improving drug development decision making, or by building personalized medicine algorithms that are delivered at point-of-care. Case studies on impact in patient care will be covered in both drug development and clinical settings.
Środa, 16 czerwca, 15:20-15:40 | SCENA 1
Mariusz Jażdżyk
autor książek "Chief Data Officer - jak przeprowadzić transformację opartą o dane" i “Data Driven Transformation - Book for Data Leaders"
Środa, 16 czerwca, 15:20-15:40 | SCENA 1
We wdrażaniu transformacji opartej na danych biznes zwykle koncentruje się na dostarczaniu rezultatów, a wymagania zmieniają się bardzo szybko. W trakcie prezentacji omówione będzie jak i po co w takim środowisku należy zarządzać architekturą tworzonych rozwiązań. W szczególności poruszone będą zagadnienia efektywnej strategii rozwoju architektury oraz unikania powstawania długu architektonicznego. Jednak zaplanowana technologia to warunek konieczny, ale nie wystarczający powodzenia transformacji opartej na danych. W trakcie prezentacji odpowiemy na pytanie z czym należy ją niezbędnie łączyć, aby osiągnąć sukces.
Środa, 16 czerwca, 15:40-16:00 | SCENA 1
Daniel Kaszyński
Asystent w Zakładzie Wspomagania i Analizy Decyzji
SGH
Środa, 16 czerwca, 15:40-16:00 | SCENA 1
W ramach wdrażania zaawansowanych metody analityki danych korzystających z algorytmów AI organizacje niejednokrotnie marginalizują kwestie bezpieczeństwa i podatności tych rozwiązań. Na pierwszy plan wysuwane są kwestie jakości generowanych wyników - błędy prognoz, lub wydajności obliczeniowej – np. czas trenowania modelu. Jednak, wraz z rozpowszechnianiem się wykorzystania zaawansowanych metod AI rozwijane są również podejścia umożliwiające „oszukanie” modelu decyzyjnego. Brak szybkiej reakcji na pojawiające się ataki, jak również niedostatki w zrozumieniu mechanizmów ofensywnych tych interwencji, skutkować może krytycznymi w skali organizacji skutkami finansowymi lub reputacyjnymi. W ramach prezentacji Daniel przedstawi zagadnienia związane z bezpieczeństwem w tworzeniu i utrzymaniu modeli AI w organizacjach.
.
Środa, 16 czerwca, 15:00-15:20 | SCENA 2
Radosław Piedziuk
Unstructured Data Solutions Sales Manager
Dell Technologies
Środa, 16 czerwca, 15:00-15:20 | SCENA 2
Eksperci rynku IT są zgodni, że w najbliższych latach około ¼ analizowanych danych będzie dotyczyła informacji przetwarzanych w czasie rzeczywistym. Czy infrastruktura IT jest już gotowa na takie wyzwania? Które sektory rynku potrzebują tego typu rozwiązań i co mogą zyskać? Dowiedz się więcej, poznaj przykłady z rynku i weź udział w dyskusji!
.
Środa, 16 czerwca, 15:40-16:00 | SCENA 2
Piotr Kuszewski
Chief Executive Officer
Powszechne Towarzystwo Emerytalne PZU
Środa, 16 czerwca, 15:40-16:00 | SCENA 2
Łatwość gromadzenia i przetwarzania dużych zbiorów danych niekoniecznie ułatwia podejmowanie decyzji. W wielu przypadkach lepiej skupić się na prostych metrykach lub mniejszym, ale interpretowalnym i dobrze rozumianym zbiorze danych. W procesach inwestycyjnych decyzja podjęta w ten sposób może być dużo trafniejsza niż ta gdzie wykorzystuje się więcej danych, ale bez pełnego zrozumienia ich relacji i powiązań.
Środa, 16 czerwca, 16:00-16:30 | SCENA 1 & SCENA 2
Środa, 16 czerwca, 16:30-16:50 |SCENA 1 & SCENA 2
Stephen Brobst
Chcief Technology Officer
Teradata
Środa, 16 czerwca, 16:30-16:50 |SCENA 1 & SCENA 2
The primary source of bias in machine learning is not in the algorithms deployed, but rather the data used as input to build the predictive models. In this talk we will discuss why this is a huge problem and what to do about it. Different sources of bias will be identified along with possible solutions for remedying the situation when deploying machine learning. We will also speak about the importance of transparency when using machine learning to predict outcomes that impact critical decisions.
Learn why most predictive models are biased.
Learn about the sources of bias in predictive models.
Learn how to reduce the negative impact of potential bias in predictive models.
Środa, 16 czerwca, 16:50-17:10 |SCENA 1 & SCENA 2
Jiahao Chen
AI Research Director (Executive Director) JPMorgan
Środa, 16 czerwca, 16:50-17:10 |SCENA 1 & SCENA 2
The financial services industry needs fairness and explainability in artificial intelligence and machine learning, arising from considerations of transparency, ethics, regulatory compliance, and risk management. In this talk, I introduce some of the work at JPMorgan AI Research to solve research challenges that arise from developing models for regulated decision making, such as measuring bias when labels for protected class membership cannot be observed or cannot be revealed for privacy reasons. The specific needs of financial services have led to new basic research on considering fairness-fairness and fairness-performance trade-offs during model development, as well as the limitations of fairness interventions, which generally overfit and generalize poorly.
Piątek, 18 czerwca, 08:50-09:00 |SCENA 1 & SCENA 2
Piątek, 18 czerwca, 09:00-09:20 |SCENA 1 & SCENA 2
Piątek, 18 czerwca, 09:00-09:20 |SCENA 1 & SCENA 2
Samo posiadanie analityki to jeszcze za mało. Organizacje powinny tak się przygotować, by wdrażanie rozwiązań analitycznych dawało największą wartość. Podczas ścieżki #BusinessValue porozmawiamy o tym, jak identyfikować obszary w organizacji, które będą dawały największą wartość przy wdrażaniu zaawansowanej analityki. Wyjaśnimy co zrobić, jeżeli Twoja organizacja ma portfel różnych pomysłów, jak je skonkretyzować, ocenić ich potencjał i przygotować się do ich wdrożenia.
Piątek, 18 czerwca, 09:20-09:40 |SCENA 1 & SCENA 2
Piątek, 18 czerwca, 09:20-09:40 |SCENA 1 & SCENA 2
Ogromna, ciągle rosnąca ilość danych napędzana przez nieustanny rozwój nowych technologii powoduje, że każda organizacja musi potrafić nimi zarządzać i wykorzystać ich wartość. Podczas ścieżki #DataManagement będziemy szczegółowo mówić o data governance i najlepszych praktykach w zakresie gromadzenia i zarządzania danymi. Powiemy też o kwestii źródeł danych, z których korzystają organizacje. Jak najefektywniej korzystać z danych wewnętrznych i ich zewnętrznych. Każde rozwiązanie analityczne wymaga nieco innego zakresu i sposobu przygotowania danych. Z tego względu omówimy też różnice między procesami gromadzenia danych pod klasyczną analitykę, a pod projekty wykorzystujące sztuczną inteligencję.
Piątek, 18 czerwca, 09:40-10:00 |SCENA 1 & SCENA 2
Piątek, 18 czerwca, 09:40-10:00 |SCENA 1 & SCENA 2
Modele analityczne często pozwalają na podejmowanie decyzji szybciej, a w związku z tym również taniej. Obecnie jednym z ważnych trendów w procesie ich tworzenia jest zapewnienie ich wiośnianości, czyli możliwości zrozumienia przez użytkowników w jaki sposób one działają. Podczas ścieżki #Modeling opowiemy jakie są najlepsze techniki, metody i praktyki do modelowania danych i budowania modeli predykcyjnych. Odniesiemy się do wyzwań w tym zakresie, które mają różne branże. Wyjaśnimy, jak podchodzić do efektywnego modelowania w kontekście cookie-less. Poruszymy też kwestię wyjaśnialności modeli (model explainability), czyli jak unlock the black box tych modeli analitycznych.
Piątek, 18 czerwca, 10:00-10:20 |SCENA 1 & SCENA 2
Piątek, 18 czerwca, 10:20-10:40 | SCENA 1 & SCENA 2
Piątek, 18 czerwca, 10:20-10:40 | SCENA 1 & SCENA 2
Praktycznie z każdym dniem poszerza się paleta rozwiązań, z których architekci mogą budować rozwiązania do przetwarzania i analizy danych. W tym strumieniu prezentacji przedstawione zostaną praktyczne doświadczenia odnośnie wyboru architektur, które zapewniają odpowiednią elastyczność, wydajność, skalowalność i bezpieczeństwo przy jednoczesnym zapewnieniu kosztowej efektywności i unikaniu powstawania długu technologicznego. W szczególności będą omówione kwestie rozwiązań batchowych i strumieniowych, wyboru między chmurą a on-premises, czy budowy rozwiązań data lake vs klasycznych hurtowni danych.
Piątek, 18 czerwca, 10:40-11:00 | SCENA 1 & SCENA 2
Piątek, 18 czerwca, 10:40-11:00 | SCENA 1 & SCENA 2
Skuteczne tworzenie i wdrażanie rozwiązań analitycznych wymaga nie tylko odpowiedniego podejścia biznesowego i właściwego stosu technologicznego, ale również wdrożenia efektywnych procesów wytwórczych w tym zakresie. W trakcie prezentacji prelegenci podzielą się swoimi doświadczeniami dotyczącymi najefektywniejszych sposobów budowy i organizacji pracy zespołów analitycznych. Szczególnie skupimy się na praktykach we wdrażaniu podejścia MLOps.
Piątek, 18 czerwca, 11:00-11:20 | SCENA 1 & SCENA 2
Piątek, 18 czerwca, 11:00-11:20 | SCENA 1 & SCENA 2
Analiza danych w chmurze to dziś jeden z ciekawszych i stale rosnących tematów. Niezależnie, czy mówimy o danych nierelacyjnych, relacyjnych, strumieniowych czy analizie obrazu lub video, wszystko to nabiera rozpędu pozwala chmurze pokazać prawdziwą moc. W ramach sesji #DataInTheCloud zajmiemy się usługami, architekturą, ale również przypadkami użycia, które otworzą oczy na to, jak można analizować dane w chmurze!