Dnia 22 maja br. w Sali Kolumnowej Sejmu RP odbyła się: XVIII KONFERENCJA OKRĄGŁEGO STOŁU POLSKA W  DRODZE DO SPOŁECZENSTWA INFORMACYJNEGO pod hasłem BIG DATA for BIG IMPACT jako IMPREZA CENTRALNA OBCHODOW Światowego Dnia  Telekomunikacji i Spoleczeństwa lnformacyjnego (SDTiSI)

Program konferencji obejmował:

Sesja I  - OTWARCIA - Inauguracje Konferencji. Wręczenie wyróżnień SEP

Sesja II – TEMATYCZNA: BIG  DATA wyzwaniem współczesności – strategiczne spojrzenia.

Wykład inauguracyjny:     Nowy wymiar społeczeństwa informacyjnego  – Internet Rzeczy – prof. dr hab. inż. Ryszard TADEUSIEWICZ, Akademia Górniczo-Hutnicza im. Stanisława  Staszica w Krakowie

Wykłady tematyczne:

• "Człowiek jako osoba wobec Big Data" – ks. prof. dr hab. Józef  KLOCH  – Uniwersytet Kardynała Stefana Wyszyńskiego;

• „Zaplecze B+R w obszarze ICT wobec wyzwań Big Data” – dr inż. Jerzy ŻUREK, Instytut Łączności.

Sesja III  - TEMATYCZNA: BIG  DATA w nauce, gospodarce  i społeczeństwie.

• „Big Data big problem? O ambiwalentnych skutkach Big Data” – Jakub WYGNAŃSKI,  Pracownia badań i innowacji społecznych Stocznia;

• „Jak wykorzystanie danych zmienia gospodarkę i społeczeństwo? Trendy i wyzwania ery Big Data”  – Dominik BATORSKI, ICM  Uniwersytet Warszawski;

• „Big Data źródłem oszczędności energetycznych na szeroką skalę  – Joanna KONOPKO, Prognosis;

• „Big Data w eksperymentach fizyki wysokich energii”  – Adrian BYSZUK, Politechnika Warszawska;

• „Big Data w finansach. Finanse i dane wykorzystywane przez banki. Perspektywy zmian w najbliższych  latach" – Łukasz DZIEKAN, Finai.

 

    Konferencję otworzył Andrzej Wilk. Podziękował Marszałkowi Sejmu za udostępnienie Sali Kolumnowej do odbycia naszych obrad, a także podziękował Pani Minister Annie Streżyńskiej za zgodę na przeprowadzenie transmisji internetowej. W kolejnych słowach poinformował o liście skierowanym do uczestników konferencji przez ministra Jarosława Gowina, który okazał zadowolenie z zaproszenia i wyraził poparcie dla rozwoju BigData oraz wyraził nadzieję na pozytywny wpływ na rozwój gospodarki.

 

Prezes Piotr Szymczak               Fot. B. Muszyński

    Z kolei głos zabrał prezes SEP Piotr Szymczak, który zauważył, że za dwa lata czeka nas 100. rocznica założenia stowarzyszenia, a bieżąca konferencja jest organizowana po raz 18. SEP wielokrotnie zwracał uwagę na ogromne znaczenie BigData i konieczność jej dotarcia do środowisk gospodarczych /opiniotwórczych. W imieniu SEP prezes powitał wielu znakomitych gości Konferencji, a w tym: Marka Zagórskiego z Ministerstwa Cyfryzacji, Kamila Wójcika z NOT, Mariusza Markowskiego z polskiej sekcji IEEE, Jacka Kosiorka z Polskiej Izby Radiodyfuzji Cyfrowej, Marzenę Ostanowską z Archiwum Cyfrowego, byłych prezesów SEP Stanisława Bolkowskiego i Jerzego Barglika, Jerzego Chmielowskiego z Izby Gospodarczej Elektrotechniki, Jerzego Żurka z Instytutu Łączności i Jana Nowaka z KIODO (Krajowa Inspekcja Ochrony Danych Osobowych).

Zgodnie z wieloletnią tradycją Konferencji Okrągłego Stołu, prezes Piotr Szymczak ogłosił   nazwiska osób wyróżnionych i odznaczonych medalem Janusza Groszkowskiego – Edyta Pielak, Zbigniew Kierzkowski i ks. Witold Dorsz, oraz medalem Doliwo-Dobrowolskiego – Andrzej Wilk. 

 

Prof. Ryszard Tadeusiewicz

Pierwszym mówcą w sesji tematycznej był Ryszard Tadeusiewicz – Profesor na Akademii Górniczo-Hutniczej w Krakowie, kierownik Laboratorium Cybernetyki AGH od 1973 r, którego był współtwórcą. Głównym obszarem zainteresowań profesora jest biocybernetyka, inżynieria biomedyczna, automatyka i robotyka oraz informatyka. Na dzisiejszą konferencję Profesor przygotował wykład na temat królujący w bieżących publikacjach w kraju i na świecie – ten temat to Big Data. A temat wystąpienia Profesora to: Nowy wymiar społeczeństwa informacyjnego i Internet Rzeczy. „Na dzień dzisiejszy źródłem, ogromnych ilości danych, rozważanych jako BIG DATA, są ludzie: teksty przez nich pisane, dokumenty tworzone i gromadzone, wypowiedzi na forach internetowych a także – chociaż to budzi mój sprzeciw – korespondencje email i sms. Ale to się wkrótce zmieni, bo użytkownikami Internetu staną się przedmioty, a wymieniane prze nie komunikaty i sygnały stworzą zasób typu BIG DATA nieporównywalnie większy od tego, jaki generują ludzie!” – powiedział Profesor we wstępnej części wykładu.

Internet rzeczy jest kluczem do tworzenia Przemysłu 4.0, a to jest jeden z głównych kierunków rozwoju gospodarki.

Internet rzeczy (również Internet przedmiotów, ang. Internet of Things - IoT) – koncepcja, wedle której jednoznacznie identyfikowalne przedmioty mogą pośrednio albo bezpośrednio gromadzić, przetwarzać lub wymieniać dane za pośrednictwem sieci komputerowej.

Ciekawostka historyczna: Idea „Internetu rzeczy” wcale nie jest taka nowa, jakby mogło się wydawać. Termin ten został użyty po raz pierwszy przez brytyjskiego przedsiębiorcę Kevina Ashtona w 1999 roku. Istnieje także termin Internet Wszechrzeczy (ang. Interrnet of Every Thing – IoE), będący określeniem na sieć ludzi, procesów, danych i rzeczy podłączonych do Internetu.

Zdaniem Profesora, wyróżnia się trzy obszary Internetu:

  1. Internet ludzi (z którym obcujemy na co dzień)
  2. Zasób urządzeń technicznych, do których możemy docierać za pomocą Internetu sprawdzając ich stan (czujniki) lub nakazując określone działania (elementy wykonawcze), które jednak nie mogą same nawiązywać kontaktu z ludźmi ani z innymi urządzeniami.
  3. Zasób urządzeń technicznych wyposażonych w adresy IP i mogących komunikować się ze sobą (tzn. z innymi urządzeniami) oraz z ludźmi „z własnej inicjatywy”.

Internet Rzeczy to prawdziwy wulkan!

W 2020 r. będzie podłączonych do sieci 25-50 mld urządzeń.

Według prognoz, już za trzy lata, w 2020 r. będzie podłączonych do sieci 25-50 mld urządzeń.

Porównajmy to z liczbą ludzi przyłączonych do sieci w tym czasie.

Odpowiednio do wzrostu liczby urządzeń korzystających z Internetu Rzeczy wzrośnie także wartość rynku z nim związanego. Szacuje się, że już w tym roku (2017) ten rynek będzie wart 200 mld dolarów, natomiast do roku 2019 ma osiągnąć w skali globalnej 600 mld dolarów (według innych źródeł 1,3 bln dolarów.

     

    

Ks. Prof. dr hab. Józef Kloch

 

Jako drugi w sesji tematycznej wystąpił ks. prof. dr hab. Józef Kloch z Uniwersytetu Kardynała Stefana Wyszyńskiego. Człowiek jako osoba wobec Big Data, wg Księdza Profesora jest zagadnieniem etyczno-moralnym oraz filozoficznym.

Big Data działa w modelu 3V, co się tłumaczy jako: duża ilość danych (ang. volume), duża zmienność danych (ang. velocity), duża różnorodność danych (ang. variety). Model 3V był następnie dość szybko rozbudowywany o kolejne składowe V: wartość (ang. value) lub wiarygodność (ang. verocity) lub zmienność (ang. variability).

Zagadnienia Big Data znajdują się na styku fizyki, teologii i etyki, są mocno związane z etyką. Z tematyką Big Data ściśle są związane fakenews – fałszywe informacje i hakerzy, nie ma ostatecznej odpowiedzi na pytanie czy hakerzy mieli wpływ na wynik wyborów w USA. Problem – która informacja, ze wszystkich dostępnych w Internecie, jest prawdziwa?

 

 

Cyfrowy Cień

Szeroko korzystano z facebooka w wyborach USA, podczas wyboru Obamy. Media społecznościowe w ostatnich wyborach w Polsce: w wyborach prezydenckich – brak, a w parlamentarnych – mocne zaangażowanie. Wystąpiło mnóstwo fakenews – nastąpiła relatywizacja autorytetów

Prywatność ludzi zaciera się, ma na to wpływ monitoring, searching i karty chipowe (vide Orwell-1984) – przypomina się, że Wielki Brat wie wszystko. Życie toczy się podwójnie: w świecie rzeczywistym (PESEL, Nr paszportu, prawa jazdy i innych) i w świecie cyfrowym dziesiątki znaczników „cookies”). Są firmy, które łączą bazy danych i tworzą pełne portrety cyfrowe osób. Adres internetowy może być źródłem pozyskania wielu informacji o właścicielu. Często nie uświadamiamy sobie, że rozpowszechniamy dane o sobie na cały świat. Handel danymi – sprzedaż danych o zachowaniach klientów staje się coraz ważniejszym elementem branży finansowej. Na przykład doradcy jednej z firm – pionierów tej branży analizują dziennie 65 mld transakcji, wykonywanych przez 1,5 mld użytkowników kart w 210 krajach (BigData!!!). Banki dysponują danymi o zwyczajach zakupowych klientów, dane te są następnie sprzedawane. Nasuwa się pytanie: czy takie działania banku są w pełni etyczne? Dostępność naszych niby prywatnych danych stanowi „cyfrowy cień”, jaki powodują instytucje zbierające nasze dane.

Z kolei głos zabrał dr inż. Jerzy Żurek, dyrektor Instytutu Łączności, i wygłosił referat „Zaplecze B+R w obszarze ICT wobec wyzwań Big Data”

Dr. Jerzy Żurek

Na wstępie dr Żurek przypomniał, że Instytut Łączności ma długą historię. Wywodzi się od założonego w 1934 r. Państwowego Instytutu Telekomunikacji, kierowanego przez Profesora Janusza Groszkowskiego, (którego imię nosi Oddział Elektroniki, Informatyki, Telekomunikacji SEP mający wielki wkład w organizację tej Konferencji – komentarz cr).

Przed Instytutem Łączności stoją wielorakie wyzwania, a mianowicie:

  • systemy informacyjne i techniczne generują coraz więcej danych,
  • olbrzymie ilości danych wymuszaj rozwój prac nad ich uporządkowanym udostępnianiem (Open Access),
  • szczególne znaczenie ma integracja infrastruktur do przechowywania i analizy danych dla celów badawczych

Motorem napędowym rozwoju telekomunikacji są od pewnego czasu sieci 5G, nowe sieci łączności bezprzewodowej. Nowe sieci mają stanowić podstawę (warstwę fizyczną) realizacji wszystkich funkcji usługowych i transmisyjnych, w tym Internetu Rzeczy, na jakie oczekują odbiorcy.

W telekomunikacji operuje się pojęciem Big Data (5V), na co składa się:

  • Volume - duża ilość danych,
  • Variety – duża różnorodność danych (strukturalne, niestrukturalne, tekstowe, dane z czujników, dźwiękowe, wizyjne, łańcuchy znaków, pliki rejestrowe),
  • Velocity – duża szybkość pojawiania się nowych danych i ich analizy w czasie rzeczywistym,
  • Veracity – wiarygodność,
  • Value – znacząca wartość danych dla biznesu

Największe wykorzystanie Big Data obserwuje się w badaniach fizycznych. Istotnie duże wykorzystanie występuje w trzech obszarach informatyki i telekomunikacji, takich jak klienci, usługi oraz infrastruktura sieciowa. Muszą istnieć pomiędzy nimi niezawodne łącza.

Monitoring pojazdów, opracowany w Instytucie, jest jednym z przykładów wykorzystania nowej techniki przetwarzania wielkich zbiorów danych; uzyskuje się obraz ruchu pojazdów na drogach z aktualizacją 1-sekundową.

Instytut bierze udział w realizacji europejskiego projektu integracyjnego EUDAT.

Zaplecze badawczo-rozwojowe w Polsce obejmuje ICM (Interdyscyplinarne Centrum  Modelowania z Warszawy), PCSS (Poznańskie Centrum Superkomputerowo-Sieciowe), CIS (Centrum Informatyczne Świerk) oraz e-infrastrukturę na uczelniach i instytutach badawczych. 

Instytut Łączności w obszarze analiz danych realizuje zadania:

  • System Informacyjny o Infrastrukturze (SIIS) – system gromadzenia, przetwarzania, prezentowania i udostępniania informacji
  • Platforma Informatyczne (PIBUK) – centrum przetwarzania i analizy danych o dużej wydajności
  • Zespoły analizy danych dotyczących infrastruktury telekomunikacyjnej
Platforma PIBUK

Platforma PIBUK – oprogramowanie analityczne SAS (Software as a Service) umożliwia:

  • raportowanie,
  • modelowanie i zarządzanie modelami,
  • integrację danych,
  • integrację z MS Office,
  • przetwarzanie strumieniowe.

Kompetencje IŁ w obszarze Big Data obejmują analizę danych strumieniowych z systemów IoT, rozwiązań Industry 4.0 i sieci 5G, analizę dużych zbiorów Big Data.

 

Po  krótkiej przerwie kontynuowano sesję tematyczną poświęconą zastosowaniom techniki Big Data w nauce, gospodarce i społeczeństwie, przygotowaną przez środowisko młodych SEP-owców.

Jakub Wygnański

Big Data big problem? O ambiwalentnych skutkach Big Data, z takim referatem wystąpił Jakub Wygnański z Pracowni badań i innowacji społecznych Stocznia.

Przeświadczenie, że Big Data zrobi za nas wszystko jest czasami iluzją. Dowolne zestawianie danych, aczkolwiek dozwolone, może prowadzić na manowce. Często w dostępie do danych występuje asymetria, Państwo dużo wie o nas, a my mamy zakaz wiedzy o Państwie, przynajmniej w wielu tematach.

Big Data na ogół zwalnia ze stosowania teorii. W wielu sytuacjach, jeśli nie znamy mechanizmów, to sądzimy, że wrzucenie wielu wyników do „komputera” da nam wynik w postaci wzoru obliczeniowego lub procedury. Tak nie jest. Big Data może dać pogląd na korelacje zjawisk, jednak nie określi ich przyczyn. Nie zadziała w trybie przyczynowo-skutkowym.

Społeczeństwa są zmęczone nieustanną współpracą z różnego rodzaju urządzeniami tzw. nowych technologii. W USA stosowane są, na życzenie, terapie odzwyczajania np. od telefonów, 2-tygodniowa kosztuje 27 tys. USD.

Dominik Batorski

 

Jak wykorzystanie danych zmienia gospodarkę i społeczeństwo? Trendy i wyzwania Big Data, Dominik Batorski, Uniwersytet Warszawski

Dane są najcenniejszym zasobem, a infrastruktura ich przetwarzania staje się najistotniejszym czynnikiem produkcji.

Wartość firmy zależy od wielu, czasem niespójnych, czynników. Firma „airbnb” zajmuje się przetwarzaniem danych i prowadzeniem hoteli, a należy do czołówki finansowej. Innym przykładem może być Tesla, która stała się  najwartościowszym producentem samochodów. Produkuje autonomiczne samochody elektryczne, generuje straty produkując kilkadziesiąt tysięcy samochodów podczas gdy inne produkują miliony. Ponieważ samochody Tesli są autonomiczne, zawierają mnóstwo czujników, to firma dzięki nim ma najbogatsze zbiory danych.

Algorytmy nie są źródłem przewagi w gospodarce. Bardzo często są udostępniane przez innych. Źródłem ich unikalnej wartości są metody ich przetwarzania.

Zmiana organizacji produkcji pozwalająca na efektywne wykorzystanie najnowszych rozwiązań technicznych doprowadza do zwiększenia zysków.

O ile kiedyś postęp uzyskano po wprowadzeniu produkcji taśmowej, tak teraz tym czynnikiem postępu jest przetwarzanie danych i sztuczna inteligencja, a w tym predykcja i analiza preskryptywna. Taka analiza prowadzi do wniosku, że przepływność łączy internetowych w gospodarstwach domowych podwaja się w Polsce co 19 miesięcy.

Sztuczna inteligencja ma coraz lepsze osiągnięcia; program Alphago, stworzony przez DeepMind wygrał z jednym z najlepszych graczy w Go Lee Sedolem.

Sztuczna inteligencja obejmuje zdolność maszyn do postrzegania i rozumienia otoczenia, obejmuje także zdolność do przemieszczania się, synchronizowania i koordynacji swych działań; zawiera w sobie efektywność, czyli lepsze wykorzystanie zasobów a także predykcję, czyli przewidywanie przyszłych zdarzeń na podstawie danych bieżących.

Dużym wyzwaniem dla sztucznej inteligencji jest problem rozpoznawania tekstu i mowy oraz automatyczne tłumaczenia. Istnieją rozwiązania, w których osoba mówi do telefonu, a odbiorca słyszy treść rozmowy w swoim języku; nie ma w prawdzie jeszcze wersji z językiem polskim. Kolejnym etapem w rozwoju jest tworzenie treści komunikatów.

Sztuczna inteligencja umożliwia lepsze wykorzystanie zasobów. Na przykład firma Uber zauważyła, że przeciętny samochód przez 96% czasu stoi na parkingu. Car sharing, czyli wspólne użytkowanie samochodów, zdaniem firmy Uber, zdecydowanie uzdrawia tę sytuację.

Sztuczna inteligencja może oznaczać także „koniec prywatności”. Oprogramowanie smartfonów sprawdza dostępność sieci Wi-Fi nawet, gdy funkcja jest wyłączona. A zatem dane o dostępnych sieciach umożliwiają odtworzenie mapy miejsc przebywania właściciela smartfonu.

Dane są łakomym kąskiem dla firm i korporacji. Są firmy, na przykład ubezpieczeniowe, które chciałyby takie dane wykorzystywać.

Joanna Konopko

 

Referat pt. „Big Data źródłem oszczędności energetycznych na szeroką skalę” wygłosiła Joanna Konopko z firmy Prognosis.

Firma Prognosis wykonuje badania nad wykorzystywaniem informacji jako przewagi konkurencyjnej prowadzącej do oszczędności w energetyce.

Same dane pozyskiwane nie stanowią istotnej wartości, dopiero informacje w nich zawarte i wiedza decydują o przydatności. Wiedza może być ukryta (w tekstach), może wynikać z doświadczenia, z praktyki lub może przejawiać się w zastosowaniu.

Racjonalne gospodarowanie energią polega na wykorzystaniu wiedzy do optymalizacji gospodarki energetycznej. Istotnym czynnikiem jest przejście od postawy konsumenckiej do prosumenckiej, gdy odbiorca jest również producentem energii.

Klientami opracowań firmy są różnego rodzaju odbiorcy energii. Analizy energetyczne obejmowały przegląd faktur za usługi za okres 3 lat, weryfikację umów z dostawcami energii i analizę stanu sieci energetycznej.

Adrian Byszuk

 

Temat „Big Data w eksperymentach fizyki wysokich energii” był przedmiotem wystąpienia Adriana Byszuka z Politechniki Warszawskiej.

Big Data jest dobrze znanym zjawiskiem w świecie nauki; problemy fizyki dużych energii są trochę specyficzne dla typowych zastosowań Big Data.

Świat nauki od dawna walczy z problemami wynikającymi z nadmiaru danych. Teleskop SDSS po uruchomieniu w roku 2000 zgromadził w ciągu kilku tygodni więcej danych niż w wszystkie eksperymenty w historii astronomii razem wzięte (200 GB/dobę).

Dużym zadaniem było zbudowanie urządzenia Large Hadron Collider (Wielki Zderzacz Hadronów) w ośrodku CERM pod Genewą.

Urządzenie w pełni uzasadnia zastosowanie pojęć Big Data, gdyż zawiera 150 mln czujników, emituje 40 mln klatek/s, rejestruje 600 mln zderzeń/s i angażuje przepływność 1 PB/s – prawie 200x więcej niż wszystkie źródła na świecie razem. Dane są ograniczane  w proporcji 1:10*10^12. Uzyskuje się przepływność 1 GB/s i 30 PB rocznie.

Innym zagadnieniem tego rodzaju jest klaster obliczeniowy LHC, w którym ma udział 41 krajów, 170 centrów danych i 8000 użytkowników. Każdy człowiek może wspomóc pracę klastra; wystarczy zainstalować stosowną aplikację i dołączyć do LHC@home, komputer automatycznie dołączy do LHC Grid i będzie wspierał obliczenia.

Łukasz Dziekan

 

Big Data w finansach. Finanse i dane wykorzystywane przez banki. Perspektywy zmian w najbliższych latach” – to temat wystąpienia Łukasza Dziekana  z firmy Finai.

Sektor finansowy jest największym i najbardziej chłonnym użytkownikiem techniki Big Data.

Ważnym problemem w branży finansowej jest identyfikacja klienta. Obecnie odbywa się to na ogół na podstawie identyfikacji twarzy, ale prawdopodobieństwo błędu jest jeszcze dość wysokie. Trwają prace nad identyfikacją na podstawie głosu, zakłada się, że kilkusekundowa wypowiedź wystarczy do pełnej identyfikacji człowieka.

Mówiąc o setkach terabajtów danych trzeba wyróżnić dane wewnętrzne i zewnętrzne. Wśród danych występuje nadmiar (szum), wykorzystuje się zaledwie kilka procent danych. Przechowywanie danych kosztuje, a ich przetwarzanie kosztuje bardziej. Najczęściej odbywa się to w chmurze.

Sytuacja w branży finansowej jest taka, że analizy predykcyjne na etapie wdrażania, biometria – to pierwsze testy, a rozwiązania jeszcze niedojrzałe, prowadzone są próby personalizacji, ale z miernymi efektami. Duże nadzieje są wiązane z automatyzacją procesów.