Do czego przydaje się data science w badaniu sieci bezprzewodowych?

Do czego przydaje się data science w badaniu sieci bezprzewodowych?

Analiza pomiarów sieci polega na wyciąganiu danych z bardzo dużego zbioru, aby znaleźć pewne korelacje i zależności. Mogą one wskazywać, że wystąpił problem albo dlaczego wystąpił. Następnie trzeba zwizualizować problemy w postaci wykresów i analiz. Do tego celu używamy metod data science opowiada dr hab. inż. Krzysztof Grochla.

Krzysztof Grochla bada skalowalność sieci bezprzewodowych, wydajność protokołów sieciowych i systemy internetu rzeczy. Jest kierownikiem Zespołu IoT w Instytucie Informatyki Teoretycznej i Stosowanej Polskiej Akademii Nauk. W pracy naukowej zajmuje się także efektywnością sieci telekomunikacyjnych, projektowaniem protokołów i algorytmów dla sieci bezprzewodowych LP WAN oraz systemami wykrywania bliskości i lokalizacji urządzeń. Ma doświadczenie w zarządzaniu i realizacji dużych projektów badawczo-rozwojowych. Jako ekspert współpracował m.in. z Komisją Europejską, Narodowym Centrum Badań i Rozwoju oraz Ministerstwem Funduszy i Polityki Regionalnej.

Około 10 lat temu wiele mówiło się o internecie rzeczy, jako futurystycznej wizji. Zaskoczyło Pana, że tak szybko IoT stało się codziennością?

Prawdę powiedziawszy, nie byłem tym zaskoczony. Będąc blisko technologii, obserwując rozwój i powszechność podłączania do internetu różnych rodzajów komputerów i serwerów, a później coraz większej liczby kolejnych urządzeń, spodziewałem się wykładniczego przyrostu złożoności sieci. Rzeczywiście skala powszechności wykorzystania internetu i to, że podłączamy do sieci już nawet pralki, telewizory czy drobne urządzenia domowe, jest ogromna. Jednak śledząc rozwój sieci bezprzewodowych i sieci komputerowych, można było przewidywać prawdopodobne skutki.

A co w obrębie internetu rzeczy jest dziś problemem lub pozostanie wyzwaniem w najbliższym czasie? Co wymaga opracowania nowych rozwiązań technologicznych?

Na pewno ogromnym wyzwaniem jest skalowalność protokołów i mechanizmów transmisji danych, ponieważ wraz ze wzrostem liczby urządzeń rośnie także wielkość i różnorodność transmisji danych, wykonywanych przez te urządzenia. Systemy i algorytmy zarządzania transmisją muszą się do tego dopasować i odpowiednio rozwijać. Innym problemem jest automatyzacja i ułatwienie rozwoju sieci, ponieważ to, co mogliśmy dotąd ręcznie skonfigurować i zaktualizować na komputerze, jest często niemożliwe na małym urządzeniu, które uruchamiamy i zapominamy o nim. Nowe urządzenia muszą więc same konfigurować się i naprawiać, a także same zgłaszać nam ewentualne problemy w działaniu. Jeszcze jednym dużym wyzwaniem jest bezpieczeństwo, ponieważ tak duża liczba urządzeń w domach i wszędzie wokół powoduje, że bardzo łatwo nas podsłuchać, nagrać albo wykraść prywatne dane. Zapewnienie bezpieczeństwa wielu małym urządzeniom jest dużo trudniejsze niż jednemu komputerowi, który dawniej był jedynym urządzeniem podłączonym w domu do internetu.

A to jest w ogóle możliwe, zwłaszcza uwzględniając komplikacje związane z różnorodnością małych czy nietypowych urządzeń i aktualizowaniem ich oprogramowania?

Jest to na pewno bardzo trudne i przy aktualnie stosowanych rozwiązaniach w zakresie bezpieczeństwa wydaje się niemożliwe. Natomiast cały czas są prowadzone prace standaryzacyjne, dotyczące rozwoju technologii, żeby na przykład wymóc na producentach stosowanie rozwiązań, które zapewnią dostępność aktualizacji oprogramowania w zakresie bezpieczeństwa. Przydadzą się też odpowiednie oznaczenia sprzętu etykietami informującymi o aktualizacjach, które będą gwarantowały zachowanie pewnych funkcjonalności. Już poza samymi aspektami bezpieczeństwa - często stajemy przed problemem, że urządzenia bez aktualizacji oprogramowania przestają poprawnie działać. Np. nie są w stanie połączyć się z serwisem strumieniowania wideo, ponieważ nie obsługują najnowszych kodeków.

Ma pan na myśli przygotowywane nowe prawo europejskie?

Tak, mówię o nowych wytycznych Komisji Europejskiej w sprawie obowiązku zapewniania aktualizacji przez minimum 5 lat od wprowadzenia urządzenia na rynek. W Polsce prace nad adaptacją tych standardów są prowadzone między innymi w ramach Grupy Roboczej ds. Internetu Rzeczy, kiedyś działającej przy Ministerstwie Cyfryzacji, a obecnie Kancelarii Premiera.

Specjalizuje się pan w badaniu skalowalności sieci bezprzewodowych. Na czym ono polega?

Jeśli w danej sieci pracuje kilka czy kilkanaście urządzeń, możemy łatwo sprawdzić, czy wszystkie ich funkcje działają poprawnie. Natomiast problemy pojawiają się, gdy tych urządzeń mamy tysiąc albo dziesiątki tysięcy. Ze względu na koszty i pracochłonność praktycznie żaden producent sprzętu nie jest w stanie pozwolić sobie na przetestowanie tysiąca urządzeń, żeby sprawdzić, jak na przykład serwer zachowa się w odpowiedzi na zapytania przesłane przez wszystkie te urządzenia. Dlatego stosujemy tzw. symulację zdarzeń dyskretnych, która w pamięci komputera PC odtwarza zachowanie wielu urządzeń bądź wielu równoczesnych transmisji w sieciach bezprzewodowych lub zwykłych. W ten sposób symulujemy to, co działoby się w rzeczywistości na tysiącu albo dziesiątkach tysięcy urządzeń w ciągu sekund bądź minut pracy komputera.

Jakie narzędzia służą do takich badań?

W zakresie samych symulacji protokołów sieciowych dwa najczęściej stosowane narzędzia to ns-3 i OMNeT++. Natomiast z punktu widzenia systemów data science i systemów serwerowych używamy też narzędzi do testów performance’owych, które wykorzystujemy do odzwierciedlenia działania wielu urządzeń czy wielu klientów. Przykładami takich narzędzi są JMeter i Locust.

A jakie miejsce analityka danych zajmuje w badaniu skalowalności sieci bezprzewodowych?

Poza modelowaniem i analizowaniem efektywności poszczególnych protokołów zajmujemy się również analizą pomiarów rzeczywistych sieci. I to jest zagadnienie typowo dotyczące data science, bo polega na wyciąganiu danych z bardzo dużego zbioru, aby znaleźć pewne korelacje i zależności wskazujące, że wystąpił jakiś problem albo dlaczego ten problem wystąpił. Następnie trzeba zwizualizować te problemy w postaci wykresów czy analiz. Tu korzystamy z metod data science. Z drugiej strony wyniki naszych symulacji często generują bardzo duże zbiory danych, które później musimy przeglądać z użyciem metod analitycznych.

W ostatnich latach media dużo czasu poświęciły sieci 5G, jako generacji, która skokowo poprawia wydajność i prywatnych, i przemysłowych zastosowań. Co wpływa na efektywność łączności piątej generacji?

W przypadku 5G największym wyzwaniem jest zapewnienie gęstego zapełnienia pasmem terenów, które są mocno zurbanizowane. Czyli chodzi o zwiększenie dostępnej przepustowości dla osób, które są w miejscach, gdzie jest bardzo duże zagęszczenie klientów. Rozwiązuje się ten problem, z jednej strony zwiększając liczbę stacji bazowych i zmniejszając ich moc nadawania, po to aby móc wielokrotnie wykorzystać tą samą częstotliwość na danym obszarze. Z drugiej strony dużym wyzwaniem jest takie zaprojektowanie rozmieszczenia stacji bazowych, żeby dopasować się do gęstości użytkowników na danym terenie i do ich wymagań dotyczących zapotrzebowania na przepustowość sieci. Ważnym aspektem koniecznym do uwzględnienia w projektowaniu takich sieci jest zmienność obciążenia w czasie. Zupełnie inne obszary miasta wymagają dużej przepustowości w godzinach pracy, a zupełnie inne po południu czy wieczorami, gdy ludzie wracają do domu.

Jeżeli na danym terenie jest więcej osób, sieć działa gorzej.

Tak, ale też ogromne znaczenie ma charakter ruchu - dużo mniejszym obciążeniem dla sieci jest transmisja rozmowy telefonicznej niż transmisja strumienia wideo czy wideokonferencji.

A jak wygląda kwestia zakłóceń w sieci 5G?

Rodzina standardów 5G zawiera szereg mechanizmów zwiększających odporność transmisji na zakłócenia, takich jak np. kodowanie nadmiarowe oraz mechanizm HARQ. Dodatkowo w 5G wprowadzono tzw. numerologie, które pozwalają lepiej dopasować sposób transmisji do szerokości dostępnego pasma. Umożliwia to urządzeniom 5G lepiej współdziałać z innymi standardami transmisji i zapewnić większą odporność transmisji na zakłócenia.

5G rozwija się, tymczasem trwają już prace nad standardem 6G. Co przyniesie nam szósta generacja łączności?

6G jest naturalnym rozwojem standardu 5G w zakresie dalszego zwiększania przepływności transmisji danych, na przykład poprzez zwiększenie wykorzystania anten MIMO, które umożliwiają transmisję do wielu użytkowników na tym samym obszarze z wykorzystaniem tych samych częstotliwości i slotów czasowych. A zatem jest to dalsze dopasowywanie sieci do obsługi bardzo dużej liczby urządzeń, ponieważ w przypadku sieci 4G, 3G i starszych problemem były ograniczenia dotyczące liczby urządzeń wspieranych przez jedną stację bazową i działających w ramach jednej komórki. W przypadku urządzeń IoT nie przepustowość sieci stanowi główne wyzwanie, ale właśnie możliwość obsługi większej liczby urządzeń. Standardy 5G i 6G przychodzą tu z pomocą.

Udostępnij link

https://www.datasciencerobie.pl/do-czego-przydaje-sie-data-science-w-badaniu-sieci-bezprzewodowych/