• LOGOWANIE
  • KOSZYK
  • KONTAKT
    • WYDAWNICTWO
    • REDAKCJE
      • ATEST - OCHRONA PRACY
      • AURA OCHRONA ŚRODOWISKA
      • CHŁODNICTWO
      • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
      • DOZÓR TECHNICZNY
      • ELEKTROINSTALATOR
      • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
      • GAZ, WODA I TECHNIKA SANITARNA
      • GOSPODARKA MIĘSNA
      • GOSPODARKA WODNA
      • HUTNIK - WIADOMOŚCI HUTNICZE
      • INŻYNIERIA MATERIAŁOWA
      • MATERIAŁY BUDOWLANE
      • OCHRONA PRZED KOROZJĄ
      • OPAKOWANIE
      • PROBLEMY JAKOŚCI
      • PRZEGLĄD ELEKTROTECHNICZNY
      • PRZEGLĄD GASTRONOMICZNY
      • PRZEGLĄD GEODEZYJNY
      • PRZEGLĄD MECHANICZNY
      • PRZEGLĄD PAPIERNICZY
      • PRZEGLĄD PIEKARSKI I CUKIERNICZY
      • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
      • PRZEGLĄD TELEKOMUNIKACYJNY
      • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
      • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
      • PRZEMYSŁ CHEMICZNY
      • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
      • PRZEMYSŁ SPOŻYWCZY
      • RUDY I METALE NIEŻELAZNE
      • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
      • WIADOMOŚCI ELEKTROTECHNICZNE
      • WOKÓŁ PŁYTEK CERAMICZNYCH
    • REKLAMA
    • DRUKARNIA
    • KOLPORTAŻ
  • PRENUMERATA
  • LISTA CZASOPISM
    • ATEST - OCHRONA PRACY
    • AURA OCHRONA ŚRODOWISKA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • DOZÓR TECHNICZNY
    • ELEKTROINSTALATOR
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • OPAKOWANIE
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  • WIRTUALNA CZYTELNIA
 
PORTAL INFORMACJI TECHNICZNEJ - NAJWIĘKSZA BAZA ARTYKUŁÓW TECHNICZNYCH ONLINE - AKTUALNIE 116514 PUBLIKACJE
  •   CZASOPISMA  
    • ATEST - OCHRONA PRACY
    • AURA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • ELEKTROINSTALATOR
    • DOZÓR TECHNICZNY
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • OPAKOWANIE
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY - WIADOMOŚCI TELEKOMUNIKACYJNE
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  •   KSIĄŻKI 
  • WIRTUALNA CZYTELNIA
  •   PRENUMERATA 
  •   REKLAMA 
  •   DRUKARNIA 
  •   KOLPORTAŻ 
  •   WYDAWNICTWO
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • 2018-8-9

PRZEGLĄD TELEKOMUNIKACYJNY

miesięcznik ISSN 1230-3496, e-ISSN 2449-7487 - rok powstania: 1928
Stowarzyszenie Elektryków Polskich

OPTYMALIZACJA PROCESU POSZUKIWANIA NIEROZKŁADALNYCH WIELOMIANÓW OSADOWYCH
(ang. OPTIMIZATION OF IRREDUCIBLE SEDIMENTARY POLYNOMIALS SEARCH PROCESS)

DOI:10.15199/59.2018.8-9.51
Paweł Augustynowicz Andrzej Paszkiewicz 
Streszczenie
W artykule omówiono optymalizację procesu poszukiwania nierozkładalnego wielomianu osadowego nad GF(2) zadanego, wysokiego stopnia poprzez wybór odpowiedniego punktu startowego i sposobu kolejkowania badanych wielomianów. Postawione tezy sprawdzono empirycznie oraz zilustrowano odpowiednimi przykładami.
Słowa kluczowe: ciała binarne, wielomiany nieprzywiedlne, wielomiany osadowe.
Abstract
This article addresses the problem of sedimentary irreducible polynomials over GF(2) search process optimization. Different queueing strategies and starting points were tested for optimality. Obtained results were empirically verified by computational experiments.
Keywords: binary fields, irreducible polynomials, sedimentary polynomials.
1. WSTĘP Rozszerzenia skończone ciała binarnego charakteryzują się bardzo szerokim zakresem potencjalnych zastosowań, spośród których w szczególności wymienić należy między innymi kryptografię, algebraiczną teorię kodów, bądź generację liczb pseudolosowych. Z tego względu optymalizacja procesu konstrukcji skończonych ciał binarnych o szczególnych postaciach w dalszym ciągu pozostaje problemem otwartym o istotnym znaczeniu praktycznym [3]. W celu rozwiązania sformułowanego powyżej problemu można zastosować różne podejścia, polegające między innymi na zmniejszaniu złożoności wykorzystywanych algorytmów, coraz wydajniejszym ich implementowaniu, bądź wykorzystaniu właściwości szczególnych postaci wielomianów do ich efektywnego poszukiwania. W niniejszej pracy zaprezentowano wspomniane wykorzystanie własności szczególnych nierozkładalnych wielomianów osadowych celem zmniejszenia złożoności procesu konstrukcji odpowiadających im ciał skończonych. Wzrost wydajności wynikający z zastosowanego podejścia potwierdzono zarówno teoretycznie poprzez wyznaczenie liczby wielomianów kandydujących dla różnych metod, jak i empirycznie wykonując odpowiedni eksperyment obliczeniowy. W obu przypadkach wyraźnie widać odpowiedni spadek średniego czasu znalezienia nierozkładalnego wielomianu osadowego. 2. PRZEPROWADZONE PRACE Definicja 1 Nieprzywiedlnym wielomianem osadowym nad ciałem GF(2) nazywamy wielomian postaci 𝑥𝑛 + 𝑔(𝑥), gdzie 𝑔(𝑥) posiada stopień bliski liczbie 𝑙𝑜𝑔2(𝑛). Definicja 2 Stopniem wewnętrznym wielomianu osadowego postaci 𝑥𝑛 + 𝑔(𝑥) nazywamy stopień 𝑔(𝑥) i oznaczamy jako deg⁡(𝑔(𝑥)). W ramach dotychczas przeprowadzonych badań wielomianów osadowych obalono sławną hipotezę Gao i von zur Gathena [2] dotyczącą szybkości wzrostu stopnia wewnętrznego wielomianu osadowego poprzez wyznacze [...]
 

  • ZAKUP JEDNORAZOWY I DOSTĘP DO WIRTUALNEJ CZYTELNI
  • PRENUMERATA PAPIEROWA

   
Metoda płatności: Płatności elektroniczne (karta kredytowa, przelew elektroniczny)
Dostęp do publikacji - jednorazowy (płatność elektroniczna) - tylko 6,00 zł
(płacisz 45% mniej niż przy płatności SMS)
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma - 1h tylko 24.60 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma - 4h tylko 43.05 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma - 12h tylko 73.80 zł
 DO KOSZYKA 
Metoda płatności: SMS Premium
Dostęp do publikacji - jednorazowy (płatność SMS'em) - 11,07 zł brutto (9,00 zł + VAT)
  kup! (SMS)    
 

Prenumerata

Szanowny Kliencie!
Zamów roczną prenumeratę w wersji PLUS a uzyskasz dostęp do archiwalnych publikacji tego czasopisma.
Nie zwlekaj - skorzystaj z tysięcy publikacji o najwyższym poziomie merytorycznym.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 486,00 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 437,40 zł *)
prenumerata papierowa roczna - 396,00 zł
prenumerata papierowa półroczna - 198,00 zł
prenumerata papierowa kwartalna - 99,00 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »


Bibliografia

[1] Augustynowicz Paweł, Paszkiewicz Andrzej. 2017. "Empiryczna weryfikacja hipotezy o stopniu wewnętrznym osadowych wielomianów nieprzywiedlnych nad GF(2)", Przegląd Telekomunikacyjny Wiadomości Telekomunikacyjne. 8-9: 799-802.
[2] Gao Shuhong, Howell Jason, Panario Daniel. 1999. "Irreducible polynomials of given forms. Finite fields: theory, applications, and algorithms", Contemporary Mathematics: 43-54
[3] Gao Shuhong, Panario Daniel. 1997. "Tests and Constructions of Irreducible Polynomials over Finite Fields", Foundations of Computational Mathematics: 346-361
[4] Paszkiewicz Andrzej. 2009. "O pewnej hipotezie dotyczącej wielomianów nieprzywiedlnych nad GF(2)", Matematyka Stosowana, 10:39- 49
[5] Swan Richard. 1962. "Factorization of polynomials over finite fields", Pacific J. Math. 12:1099-1066.

Rekomenduj znajomym
  • facebook
  • twitter
  • gplus
  • pinterest

INNE PUBLIKACJE W TYM ZESZYCIE

ALGORYTM HEURYSTYCZNY MAKSYMALIZACJI PRZEPUSTOWOŚCI W SIECIACH IEEE 802.15.4-TSCH - DOI:10.15199/59.2018.8-9.56
Mateusz Kubaszek Jan Macheta Mateusz Zapart Łukasz Krzak Cezary Worek 
1. WSTĘP W ostatnich latach wzrost zapotrzebowania przemysłu na urządzenia IoT (ang. Internet of Things) jest coraz częściej poruszanym tematem na łamach czołowych analiz biznesowych. Prognozy dają obraz dynamicznie rosnącego rynku technologii, mających na celu optymalizację procesów produkcyjnych. Spotykamy się z nową falą innowacji prowadzącą do rozwoju gałęzi technologii określaną jako IIoT (ang. Industrial Internet of Things). Kształtuje ona sposoby łączenia i wymiany danych w systemach silnie rozproszonych, dając narzędzie do zaawansowanych analiz. Optymalizacja skomplikowanych procesów produkcyjnych wymaga gromadzenia i przesyłania dużych ilości informacji a IIoT dostarcza nowych rozwiązań w postaci inteligentnych, bezprzewodowych sieci sensorowych i jest spoiwem tzw. Przemysłu 4.0. Zastosowania przemysłowe wymagają dużej niezawodności przy zachowaniu możliwie niskich kosztów, stąd duże zainteresowanie niskomocowymi systemami bezprzewodowymi [1]. Niezawodność, rozumiana jako nieprzerwana dostępność urządzeń oraz spełnienie stawianych wymogów QoS (ang. Quality if Service) może zostać wsparta dzięki technice TSCH (ang. Time Slotted Channel Hopping). Synchronizacja czasu oraz technika TSCH pozwala na wieloletnią pracę na zasilaniu bateryjnym przy zachowaniu ilości udanych transmisji na poziomie 99,9995% [2]. Opracowania bezprzewodowej sieci niskomocowej natywnie wspierającej stos TCP/IP podjęła się organizacja IETF, której wysiłkiem powstał standard 6LoWPAN [3][4]. Kolejnym krokiem była adaptacja stosu 6LoWPAN do rozszerzenia TSCH w standardzie IEEE802.15.4e, będąca celem dla utworzonej grupy roboczej 6TiSCH. Obiektem badań oraz implementacji pozostaje warstwa planisty koordynująca zestawianie, utrzymywanie oraz rekonfiguracje połączenia w ramach IEEE802.15.4-TSCH. Zagadnienie to jest obecnie nowym tematem badawczym wielu ośrodków naukowych. W niniejszym artykule przedstawiamy własny algorytm planisty scentralizowa więcej »

ALGORYTMY DO JEDNOCZESNEGO ZESTAWIANIA POŁ ˛ ACZE´N WPOLACH TYPU WSW1 O POJEMNO´SCI 2 × 2 OBSŁUGUJ ˛ ACYCH DWA RODZAJE POŁ ˛ ACZE´N - DOI:10.15199/59.2018.8-9.58
Wojciech Kabaciński Remigiusz Rajewski Atyaf Al-Tameemi 
1. WPROWADZENIE W elastycznych sieciach optycznych całe spektrum optyczne jest podzielone na wa˛skie szczeliny cze˛stotliwo ´sciowe, a kanał optyczny mo˙ze zajmowa´c kilka takich szczelin cz˛estotliwo´sciowych [9]. Szczelina cz˛estotliwo ´sciowa jest cz˛esto w literaturze okre´slana skrótem FSU (ang. Frequency Slot Unit) Poła˛czenie zajmuja˛ce m szczelin cze˛stotliwos´ciowych jest nazywane poła˛czeniem m-szczelinowym. Poła˛czenia realizowane w elastycznych sieciach optycznych musza˛ byc´ takz˙e obsługiwane w w˛ezłach tych sieci, nazywanymi elastycznymi w˛ezłami optycznymi ba˛dz´ tez˙, mówia˛c o samym polu komutacyjnym, elastycznymi optycznymi polami komutacyjnymi. W literaturze zaproponowano kilka struktur elastycznych optycznych pól komutacyjnych [2, 3, 7, 11], a krótki ich przegla˛d moz˙na znalez´c´ w pracy [1]. Jedna˛ ze struktur jest pole typu W-S-W (ang. Wavelength-Space- Wavelength), zaproponowane w pracy [6], i nazywane te˙z polem WSW1 [7]. W niniejszym artykule opiszemy algorytmy jednoczesnego zestawiania poła˛czen´ w tego typu polach, bazuja˛ce na dekompozycji macierzy na macierze permutacyjne, a nast˛epnie sklejaniu macierzy, w których w niektórych wierszach i kolumnach wyste˛puja˛ same elementy zerowe. Niniejszy artykuł stanowi kontynuacj˛e bada´n zamieszczonych w [8], w którym zaproponowano reprezentacje ˛ stanu pola za pomoca˛macierzy poła˛czen´ oraz wykorzystanie dekompozycji tych macierzy na macierze permutacyjne do zestawiania poła˛czen´ jednoczesnych. W niniejszym artykule przedstawiamy rozszerzenie algorytmu dekompozycji macierzy o ich scalanie. W algorytmie dekompozycji macierzy, cz˛e´s´c macierzy permutacyjnych ma niektóre wiersze i kolumny wypełnione samymi elementami zerowymi. W szczelinach cz˛estotliwo´sciowych odpowiadaja ˛cych tym macierzom moz˙na realizowac´ poła˛czenia odpowiadaja˛ce innym szybkos´ciom transmisyjnym i w ten sposób zredukowac´ liczbe˛ wymaganych w ła˛czach mi˛edzysekcyjnych szc więcej »

ANALITYCZNY MODEL PLASTRÓW WSIECIACH 5G - DOI:10.15199/59.2018.8-9.18
Sławomir Hanczewski Joanna Weissenberg 
1. WPROWADZENIE Kilkana´scie lat wystarczyło aby sieci komórkowe zmieniły sie˛ z sieci oferuja˛cych usługe˛ poła˛czen´ głosowych (1G, 2G) do wielousługowych sieci dost˛epowych (3G, 4G). Rozwojowi sieci towarzysza˛ spadki cen, które sprawiaja˛, z˙e liczba uz˙ytkowników (urza˛dzen´) sieci cia˛- gle ro´snie (w trzecim kwartale 2017 do sieci mobilnych doła˛czonych zostało 95 milionów nowych urza˛dzen´, ła˛cznie było ich 7,8 miliardów [1]). W konsekwencji wzrasta równiez˙ wolumen danych pochodza˛cy z sieci mobilnych. W 2017 roku miesie˛cznie urza˛dzenia moblilne (ła˛- cza w gór˛e i w dół) generowały 13,5 exabytów danych. Prognozy na rok 2021 zakładaja˛, z˙e be˛dzie to ruch rze˛du 49 exabytów [2]. Ta ogromna ilo´s´c danych przesyłana jest przez sieci mobilne dzi˛eki coraz wi˛ekszej przepustowo´sci interfejsu radiowego. W sieciach LTE (4G) jest to ju˙z 300 Mb/s (ła˛cze w dół) i 50 Mb/s (ła˛cze w góre˛). Jednak sama przepustowo´s´c interfejsu radiowego nie gwarantuje odpowiedniej wydajno´sci sieci. Dlatego te˙z w swoich sieciach operatorzy wykorzystuja˛ szereg mechanizmów odpowiedniego kształtowania obsługi ruchu, takich jak rezerwacja [3], [4], [5], priorytety [6], [7], kompresja [8], [9], [10], [11], przelewy [12], [13], [14] czy buforowanie [15], [16], [17]. Zakłada si˛e, ˙ze interfejs radiowy w sieciach 5G b˛edzie oferował jeszcze wi˛eksze szybko´sci transmisji, dzie˛ki czemu stana˛ sie˛ one szerokopasmowymi sieciami doste˛powymi, które umoz˙liwia˛ obsługe˛ zgłoszen´ o zróz˙nicowanych z˙a˛daniach (od obsługi terminali ruchomych, kontroli pojazdów autonomicznych, poprzez transmisje ˛ w czasie rzeczywistym, do obsługi urza˛dzen´ Internetu Rzeczy). Co wi˛ecej, dost˛ep do takiej sieci ma by´c mo˙zliwy praktycznie z ka˙zdego miejsca na ´swiecie. Poniewa ˙z typowa infrastruktura sieci mobilnych nie jest zbyt elastyczna, proponuje si˛e aby w sieciach 5G wykorzysta´c dwa znane wczes´niej rozwia˛zania tzn. wirtualizacje˛ oraz sieci p więcej »

ANALIZA MOŻLIWOŚCI POPRAWY WŁASNOŚCI TRANSMISYJNYCH SIECI DZIĘKI ZASTOSOWANIU STEROWANIA JEJ ZASOBAMI - DOI:10.15199/59.2018.8-9.45
Zdzisław Drzycimski Daniel Bujnowski 
1. WSTĘP Na skutek gwałtownego wzrostu natężenia ruchu internetowego, które rokrocznie wzrasta dwukrotnie [2,9,15], konieczne jest budowanie nowych sieci telekomunikacyjnych i modernizacja już istniejących. Aby sprostać stale rosnącym wymaganiom, wprowadza się coraz bardziej zaawansowane, nowe generacje sprzętu umożliwiającego szybszy przekaz informacji. Za przykład takich działań może posłużyć stosowanie sieci w pełni optycznych [13] czy korowych routerów sprzętowych [5,6]. Stwierdzono, że, poza stosowanym sprzętem, istotny wpływ na efektywność systemu przekazywania informacji posiadają również topologie systemów sieciowych, wykorzystywane protokoły komunikacyjne oraz sposób zarządzania zasobami sieciowymi umożliwiający przystosowanie jej działania do zmieniających się warunków i wymagań użytkowników [1,4,8]. Jak już wspomniano, jedną z podstawowych kwestii, jaką należy rozstrzygnąć przy projektowaniu i analizie systemów teleinformatycznych, jest dobór topologii połączeń pomiędzy jego elementami składowymi sieci [12,14]. Systemy teleinformatyczne mogą być opisywane przy pomocy grafów. Wierzchołkami tych grafów (węzłami) mogą być moduły komutacyjne lub specjalizowane komputery, zaś krawędziami - najczęściej dwukierunkowe, niezależne kanały transmisyjne tworzące sieć łączącą te wierzchołki. W pracach [10,11] przedstawiono zagadnienia związane z badaniem własności transmisyjnych sieci opisanych przy pomocy Grafów Referencyjnych, będących strukturami regularnymi, tzn. takimi, których węzły posiadają jednakowy stopień. Definicja 1 Grafem Referencyjnym nazywana jest struktura regularna o określonej liczbie węzłów, w których wartości średnicy i średniej długości ścieżki wyznaczane z dowolnie wybranego węzła źródłowego, osiągają te same, teoretycznie obliczone, dolne granice wielkości. W trakcie prowadzonych testów zaobserwowano występowanie nierównomiernego wykorzystania poszczególnych krawędzi grafów opisujących sieci co więcej »

ANALIZA MOŻLIWOŚCI ZASTOSOWANIA TECHNOLOGII BLOCKCHAIN DLA CELÓW ZAPEWNIENIA BEZPIECZEŃSTWA INFORMACJI
Marcin Święty 
1. INTRODUCTION First introduction of chain of cryptographically chained blocks was given more than 25 years ago by Stuart Haber and W. Scott Stornetta when idea of timestamping of digital documents [2] was presented. Authors presented the concept to provide authenticity for given data structure, i.e. set of digital documents. Further work of similar concept was presented to public as bitcoin, a truly digital and decentralized currency, where Satoshi Nakamoto introduced design [5] and then implementation [6] of public ledger that is used to this day. Number of other applications of the same or modified concept was presented to public, including those related to information security assurance services. This paper is aimed at assessing other applications of blockchain concept towards provision of information security services or novel information security mechanisms. Work presented will explain security principles along with impact on security usefulness and debate on whether blockchain concept can or already does provide benefit to use in these settings. Blockchain is a concept that describes structure of blocks of data that are linked (chained) together by cryptographic means. In most implementations the chaining mechanisms is implemented through use of hashing algorithm, meaning consecutive blocks contain hash value of the previous block. Other than the hash value, each block is supplied with a timestamp and additional data related to specifics of where and for what purpose the blockchain is being used. That chunk of data is most commonly referred as transactional data. A diagram of most general chaining is given in Fig. 1. Fig. 1. Block chaining with hashing algorithm Blocks are being linked so that the following (1) is true 𝐻𝑎𝑠ℎ 𝑣𝑎𝑙𝑢𝑒*:= 𝐻(𝐵𝑙𝑜𝑐𝑘*23) (1) where 𝐻(∙) is cryptographic hash fun więcej »

ANALIZA PORÓWNAWCZA METOD PROWADZENIA POMIARÓW W SIECIACH STEROWANYCH PROGRAMOWO (SDN) - DOI:10.15199/59.2018.8-9.43
Grzegorz Skołyszewski Artur Lasoń Michał Rzepka Piotr Boryło 
1. WSTĘP Wraz z rosnącą liczbą urządzeń połączonych w sieć komputerową, bardzo ważnym aspektem organizacji, administracji i zarządzania siecią teleinformatyczną stało się monitorowanie ruchu, a także zbieranie oraz analiza informacji powiązanych z jej różnymi parametrami. Monitorowanie znacznie ułatwia zarządzanie infrastrukturą oraz daje możliwość wykonania odpowiednich akcji w odpowiedzi na zaobserwowane zdarzenia. Inne przykładowe zastosowania takich narzędzi to: obserwacja stopnia użycia infrastruktury, rozliczanie użytkowników, wykrywanie anomalii, zapobieganie włamaniom, dynamiczna rekonfiguracja. Aby decyzje mogły zostać podjęte natychmiastowo, pomiary oraz analiza ruchu muszą być prowadzone w czasie rzeczywistym. Zwiększenie granularności obserwacji skutkuje jednak większym zapotrzebowaniem na zasoby obliczeniowe i sieciowe, z kolei ograniczenie tych zasobów przy zachowaniu częstotliwości zbierania metryk może mieć negatywny wpływ na dokładność obserwowanych wartości. Wdrażając takie metody, należy zachować odpowiednią równowagę pomiędzy tymi trzema czynnikami. Rozwijająca się koncepcja sieci sterowanych programowo (SDN, ang. Software Defined Networking) przyczyniła się do powstania nowych sposobów prowadzenia pomiarów, które nie mogłyby być realizowane w sieciach tradycyjnych [4]. Koncepcja SDN zakłada rozdzielenie warstwy sterującej siecią od warstwy przełączającej dane a sterownik jest przy tym instancją programistyczną. W efekcie czynności związane ze sterowaniem i zarządzaniem siecią generują mniejsze koszty operacyjne. Wynikiem pracy sterownika są wpisy umieszczane w tablicach przepływów w sterowanych przez niego węzłach sieci. Tablica przepływów to podstawowa struktura danych w urządzeniach SDN. Na podstawie wpisów w niej umieszczonych przełączniki obsługują pakiety. Rekordy w tablicy składają się z dwóch komponentów: pól związanych z przepływem oraz akcji. Pola w postaci klucz-wartość pozwalają na por więcej »

ANALIZA WPŁYWU TECHNOLOGII STOSOWANYCH W INTERFEJSACH F1 ORAZ F2 MOBILNEGO SYSTEMU 5G NA FUNKCJONOWANIE TECHNIK HYBRYDOWEGO KSZTAŁTOWANIA WIĄZEK - DOI:10.15199/59.2018.8-9.17
Zbigniew Zakrzewski 
Standaryzacja mobilnych systemów 5G przebiega pomyślnie, chociaż liczba koncepcji na jej obecną i przyszłą ewolucję ciągle rośnie. Tym razem, podobnie jak w przypadku systemów 4G, współpraca dotycząca ustanowienia jednolitego standardu o zasięgu ogólnoświatowym, wydaje się być do osiągnięcia. Zapotrzebowanie na pojawienie się sieci pracujących w nowym formacie jest bezsprzeczne, ale musi się to odbywać w ścisłej kooperacji z istniejącymi sieciami 4G oraz dostępnymi zasobami sieci szkieletowych, przeważnie opartych na technologiach optycznych sieci światłowodowych. Przyszłe sieci 5G będą przede wszystkim zorientowane na masową obsługę urządzeń, które niekoniecznie będą wymagały dostępu do wysokich przepływności bitowych. Założenia IoT (Internet-of-Things) polegają na tym, że obsługa na małym, tzw. zsieciowanym, obszarze (ok. 1 km2) nie będzie dotyczyła setek urządzeń, lecz nawet miliona. Urządzenia te będą miały wymagania raczej dotyczące gwarancji świadczenia usługi oraz bardzo krótkiego czasu jej realizacji. Łatwo jest tutaj wywnioskować, że tego rodzaju wymagania będą dotyczyły przede wszystkim usług związanych ze sterowaniem w tzw. czasie rzeczywistym (np. drony, roboty przemysłowe, czy interaktywne gry sieciowe). Spełnienie tych założeń jest możliwe dzięki coraz szybszym i tańszym urządzeniom przetwarzającym sygnały (przy masowej produkcji ich dostępność będzie jeszcze wyższa) oraz dobrze zaprojektowanej architekturze właśnie powstających nowych systemów 5G zorientowanych na opóźnienia, w domenie radiowej, mierzone w pojedynczych milisekundach. Tematem niniejszego opracowania nie jest całościowa analiza propozycji architektur systemu 5G, lecz przyjrzenie się tylko jej fragmentowi, tj. części sieci należącej do domeny radiowej. Należy tutaj zaznaczyć, że określenie w łączu 5G granicy między siecią NG-RAN (rys. 1) oraz siecią agregacyjną i rdzeniową nie jest jednoznaczne. Wynika to przede wszystkim z rodzaju świadczone więcej »

ATAK ZA POMOCĄ KOSTEK NA SZYFR BLOKOWY CTC
Marcin Dawiec Andrzej Paszkiewicz 
1. MOTYWACJA Atak za pomocą kostek, w postaci zaproponowanej przez I. Dinura i A. Shamira w [1] ma zastosowanie dla algorytmów o nieznanej konstrukcji (w postaci tzw. czarnej skrzynki, ang. black box). W fazie wstępnej ataku typowane są 𝑘-elementowe podzbiory zmiennych boolowskich, opisujących działanie szyfru, a następnie generowane 2𝑘-elementowe podzbiory ich wartości, zwane kostkami. Autorzy tego ataku proponują losowe przeszukiwanie kostek. W tym kontekście pojawia się naturalne pytanie, czy wiedza na temat konstrukcji atakowanego algorytmu szyfrowania może zmniejszyć przestrzeń poszukiwania kostek, a zatem zwiększyć skuteczność ataku? Praca udziela pozytywnej odpowiedzi na postawione pytanie. Ponadto, wskazuje możliwość wykorzystania przedstawionego algorytmu do wyszukiwania kostek użytecznych pod kątem innych zastosowań np. cube testers. 2. WSTĘP Atak za pomocą kostek jest atakiem na symetryczne algorytmy kryptograficzne, którego celem jest odzyskanie klucza (ang. key recovery attack). Atak stanowi rozszerzenie ataku AIDA (ang. algebraic IV differential attack), przedstawionego w [2] i ataku różniczek wyższego rzędu [3]. Przy pomocy ataku za pomocą kostek przeprowadzone zostały ataki na 4-rundowy algorytm CTC [4] i 767 rundowy szyfr strumieniowy Trivium [1]. Ponadto, koncepcja kostek została wykorzystana do badania pewnych własności funkcji boolowskich (ang. cube testers) oraz do zdefiniowania dynamicznego ataku kostkami (ang. dynamic cube attack). Ten ostatni umożliwił zaatakowanie 250 rund szyfru strumieniowego Grain [5], zredukowanego do 3 rund szyfru blokowego Serpent [6] oraz zredukowane wersje funkcji skrótu MD6 [7] i Keccak [8]. 2.1. Atak za pomocą kostek Prawie w każdym systemie kryptograficznym bity wyjścia mogą być opisane za pomocą wielomianu wielu zmiennych 𝑝(𝑥1, … , 𝑥𝑛, 𝑘1, … , 𝑘𝑚) nad ciałem 𝐺𝐹 (2) więcej »

Badania i analiza zaników w sieciach WBAN typu body-to-body pracujących w różnych środowiskach propagacyjnych - DOI:10.15199/59.2018.8-9.7
Sławomir J. Ambroziak Kenan Turbić Luís M. Correia 
W ostatnich latach sieci WBAN (Wireless Body Area Networks) zyskują coraz większą popularność, głównie dzięki szerokim możliwościom ich zastosowania, m.in. w ochronie zdrowia, rozrywce czy też rozwiązaniach wojskowych. Konieczne jest więc dostarczenie odpowiednich narzędzi, służących do planowania tego typu sieci, m.in. dokładnych modeli kanału radiowego, uwzględniających wiele zjawisk propagacyjnych, których skutkiem są m.in. zaniki sygnału odbieranego [1]. Jednym z typów sieci WBAN jest tzw. sieć B2B - body-to-body, w której węzły znajdują się na ciele dwóch różnych użytkowników. Komunikacja B2B może również następować w przypadku, kiedy węzły koordynujące dwóch niezależnych sieci WBAN komunikują się ze sobą, co może znaleźć zastosowanie m.in. rozwiązaniach przeznaczonych dla strażaków i grup ratowniczych [2]. Tematyka sieci B2B nie jest dotychczas licznie reprezentowana w literaturze przedmiotu. Można jednak znaleźć nieliczne prace poświęcone modelowaniu kanału radiowego na podstawie badań pomiarowych [2-4]. W celu opracowania odpowiednich modeli, umożliwiających charakteryzowanie kanału radiowego, badania te powinny być kontynuowane. W artykule przedstawiono badania zaników w sieciach WBAN typu body-to-body, oparte na wynikach pomiarów tłumienia systemowego (zdefiniowanego w [5]), przeprowadzonych w zamkniętym i otwartym środowisku propagacyjnym przy częstotliwości 2,45 GHz. Przedstawiono analizę porównawczą zaników sygnału radiowego występujących w różnych środowiskach propagacyjnych oraz dla różnych scenariuszy ruchu obu użytkowników sieci [6]. W drugiej części artykułu przedstawiono krótki opis stanowiska pomiarowego i analizowanych scenariuszy, w trzeciej zaś analizę zaników. Podsumowania treści dokonano w części czwartej. BADANIA POMIAROWE Analizę zaników, przedstawioną w artykule, przeprowadzono na podstawie wyników badań pomiarowych, przeprowadzonych w jednym z korytarzy Wydziału Elektroniki, Telekomunikacji i I więcej »

BADANIA PROGRAMOWYCH ROZWIĄZAŃ SIECIOWYCH W ŚRODOWISKU TESTOWYM PL-LAB NA POTRZEBY PRZYSZŁYCH ZASTOSOWAŃ W SIECI 5G - DOI:10.15199/59.2018.8-9.14
Krzysztof Kossowski Halina Tarasiuk 
1. WSTĘP Mniej więcej od dekady trwają intensywne prace nad siecią nowej generacji, która w początkowym etapie była określana jako Internet Przyszłości, a obecnie jest nazywana siecią 5G [1]. Rysunek 1 przedstawia przykładowy schemat sieci 5G uwzględniający jej główne elementy, nad którymi trwają intensywne prace zarówno w ciałach standaryzacyjnych (np. 3GPP, ITU-T, ETSI), jak i projektach badawczych. Kluczowym rozwiązaniem sieci brzegowej jest urządzenie określane jako serwer MEC (Multi-access Edge Computing Server). Serwer MEC łączy różne techniki dostępu bezprzewodowego z brzegową siecią szkieletową, a jednocześnie przechowuje zasoby i usługi bliżej użytkownika końcowego. Pozostałe główne elementy sieci 5G, to sieć tranzytowa (symbolicznie nazwana na rysunku, jako sieć Internet), centra danych, a także różne zastosowania aplikacyjne, w tym Internet Rzeczy, które mogą być obsługiwane przez sieć, jako wydzielone usługi (slices). Dla sieci 5G bardzo ważnym wymaganiem jest spełnienie gwarancji QoS (quality of service), w tym na brzegu sieci rzędu 1-kilku milisekund dla wybranych zastosowań. We wszystkich wymienionych obszarach sieci 5G kluczową rolę odgrywa technika wirtualizacji oraz technika SDN, która umożliwia operatorom sieci konfigurację urządzeń sieciowych i usług zgodnie z wymaganiami danego operatora. Intensywne prace nad techniką SDN są wspomagane badaniami w eksperymentalnych sieciach testowych. Przykładami takich sieci mogą być: krajowa sieć PL-LAB [2], federacja sieci testowych Fed4FIRE, w szczególności SOFTFIRE i 5GINFIRE. Przydatne w tworzeniu nowych rozwiązań SDN i wirtualizacji sieci oraz ich testowaniu jest tzw. otwarte oprogramowanie, np. Open vSwitch [3], który jest switchem programowalnym wspierającym m.in. protokół OpenFlow [4]. Open vSwitch może zostać zastosowany jako switch w sieci brzegowej, szkieletowej, w centrum danych, jak również w serwerze MEC. W tym celu można wykorzystać serwer wraz z o więcej »

BADANIA SYMULACYJNE SYSTEMÓWKOLEJKOWYCH Z NIEPEŁNODOSTE˛PNYM SERWEREM
Slawomir Hanczewski Michał Weissenberg 
1. WPROWADZENIE Obserwowany w ostatnich dziesi˛ecioleciach gwałtowny wzrost ilo´sci przesyłanych danych sprawia, ˙ze doste ˛pne zasoby systemów teleinformatycznych musza˛ byc´ wykorzystywane w coraz bardziej efektywny sposób. Istnieje szereg dobrze znanych mechanizmów zarza˛dzania ruchem za pomoca˛ których moz˙na osia˛gna˛c´ ten cel. Sa˛ to szeroko opisywane w literaturze przedmiotu kompresja progowa i bezprogowa [1], [2], [3], [4], rezerwacja [5], [6], [7], priorytety [8], [9], przelewy ruchu [10], [11], [12], [13], czy kolejkowanie [14], [15]. Samo jednak wykorzystanie tych mechanizmów (pojedynczo lub w kombinacjach) nie gwarantuje tego, z˙e zasoby systemu be˛da˛wykorzystywane w optymalny sposób. Konieczne jest bowiem odpowiednie ich sparametryzowanie. Parametry działania mechanizmów zarza˛dzania ruchem moga˛ zostac´ okre- ´slone na podstawie pomiarów rzeczywistych systemów (proces długotrwały), na podstawie modeli analitycznych (jes´li istnieja˛) oraz na podstawie symulacji cyfrowej. Symulacja cyfrowa w wielu przypadkach jest jedyna˛metoda˛ umoz˙liwiaja˛ca˛ badanie włas´ciwos´ci systemów i ich optymalizacj ˛e (nowe systemy). Zalety i wady symulacji cyfrowej były rozwa˙zane w literaturze przedmiotu. Pomimo, z˙e sa˛ doste˛pne s´rodowiska umoz˙liwiaja˛ce symulacj˛e systemów teleinformatycznych (np. NS3 [16], OMNeT++ [17]) autorzy zdecydowali si˛e na opracowanie własnego. Zgodnie z przyje˛ta˛ strategia˛ rozwoju symulatora, mo˙ze on pracowa´c jako niezale˙zny program. Po zako´nczeniu implementacji wszystkich wymaganych mechanizmów zostanie wła˛czony do zintegrowanego oprogramowania zawieraja˛cego róz˙ne symulatory oraz zaimplementowane modele analityczne [18]. Z punktu widzenia zarza˛dzania ruchem, system kolejkowy z niepełnodost˛epnym serwerem jest bardzo interesuja ˛cy. Zmiane˛ parametrów QoS obsługiwanych klas zgłosze´n mo˙zna uzyska´c nie tylko poprzez zmian˛e pojemno ´sci serwera czy te˙z wielko´sci bufora i dyscyplin więcej »

BADANIE MOŻLIWOŚCI SYMULACYJNYCH ŚRODOWISKA ‘MININET’ POD KĄTEM WSPARCIA PROTOKOŁU NETCONF - DOI:10.15199/59.2018.8-9.52
Aleksandra Jereczek Paweł Kaczmarek Sylwester Kaczmarek Jacek Litka 
1. WSTĘP Na współczesnym rynku usług telekomunikacyjnych obserwuje się stałe zwiększanie ilości informacji przesyłanych przez sieci, a co za tym idzie wzrost ich wykorzystania, złożoności i zapotrzebowania na zasoby. Rosnące trudności w zarządzaniu sieciami i sterowaniu przepływem danych powodują szeroko obserwowany rozwój koncepcji Sieci Definiowanych Programowo (SDN) [1]. Nowy model sieci wymusił opracowanie nowych metod komunikacji między urządzeniami sieciowymi oraz zdefiniowanie odpowiedniego zbioru operacji, przeprowadzanych przez scentralizowane jednostki sterujące. Z tego powodu powstały nowe protokoły sieciowe, dostosowane do wymagań stawianych przez sieci SDN, wśród których jako przykład wymienić można protokół NETCONF (Network Configuration Protocol) [2]. W związku z tak przebiegającym rozwojem sieci telekomunikacyjnych w procesie badań i projektowania istotnym ogniwem staje się możliwość analizy i oceny odpowiednio dużych struktur sieciowych, przy jednoczesnym spełnieniu wymagań, dotyczących modeli i protokołów wykorzystywanych w technologii SDN. Narzędziem szeroko stosowanym w środowisku badawczorozwojowym jest oprogramowanie Mininet, będące emulatorem sieci. Umożliwia on uruchamianie przełączników, urządzeń końcowych, kontrolerów i połączeń między nimi na pojedynczym komputerze. W ramach projektu inżynierskiego, realizowanego w Katedrze Sieci Teleinformacyjnych Politechniki Gdańskiej we współpracy z firmą ADVA Optical Networking, podjęto się zbadania możliwości zastosowania środowiska Mininet do testowania dużych sieci SDN oraz operowania na protokole NETCONF i definiowanych przez niego bazach danych. W wyniku realizacji prac oczekiwano uzyskania możliwości zbierania danych o konfiguracji sieci, emulowanej w środowisku Mininet, za pomocą baz danych zdefiniowanych w protokole NETCONF i operacji, których on dostarcza. Sposób podejścia do tak zdefiniowanego zadania przybliżono w rozdziale drugim. Opisano więcej »

BADANIE WIARYGODNOŚCI POMIARÓW WYKORZYSTANIA ŁĄCZA W SIECI SDN Z PROTOKOŁEM OPEN FLOW - DOI:10.15199/59.2018.8-9.47
Michał Kołodziej Halina Tarasiuk 
1. WSTĘP Koncepcja sieci programowalnych SDN (software defined networking - sieci programowalne) polega na rozdzieleniu warstwy sterowania i warstwy danych [5]. Takie podejście umożliwia zastosowanie w sieci uproszczonych switch’y, których działanie sprowadza się do przekazywania pakietów pomiędzy odpowiednimi portami. Warstwa danych korzysta z tablic reguł przygotowanych przez warstwę sterowania. Główną rolę w warstwie sterowania pełni sterownik SDN, który współpracuje z tzw. aplikacjami SDN. Warstwa aplikacji SDN pozwala m.in. na tworzenie oraz zarządzanie usługami sieciowymi. Sterownik posiada dwa interfejsy: "północny" (ang. northbound API) - służy do komunikacji z aplikacjami oraz "południowy" (ang. southbound API) - obsługuje komunikację pomiędzy sterownikiem a urządzeniami sieciowymi, wykorzystuje m.in. protokół OpenFlow [4]. Technika SDN jest postrzegana przez operatorów sieci, jako rozwiązanie dotychczasowych problemów związanych z heterogenicznością systemów zarządzania pochodzących od producentów różnych urządzeń. Protokół OpenFlow oferuje również nowe możliwości monitorowania sieci [2]. Switch OpenFlow [6] udostępnia interfejs, dzięki któremu sterownik SDN może odpytywać switch’e o gromadzone pomiary (tzw, statystyki), np. liczbę bitów przekazywanych przez dany interfejs. Protokół OpenFlow umożliwia przesyłanie statystyk do sterownika. Dzięki temu dostarcza aplikacjom SDN wartości odpowiednich metryk pomiarowych, które mogą być zastosowane np. w procesie sterowania ruchem, monitorowania i zarządzania siecią. Badania nad techniką SDN cały czas trwają, prowadzone są również intensywne prace standaryzacyjne w tym kierunku [8]. Obecnie najpopularniejsze metody monitorowania sieci wymagają użycia dodatkowych urządzeń, ich instalacji oraz konfiguracji w sieci. Proces jest dosyć złożony i kosztowny do zrealizowania. Powszechnie używanymi protokołami do przeprowadzania pomiarów w sieci są SNMP oraz Net więcej »

BEZPIECZEŃSTWO BANKOWOŚCI INTERNETOWEJ WOBEC WSPÓŁCZESNYCH CYBERZAGROŻEŃ - DOI:10.15199/59.2018.8-9.28
Kanstantsin Myslitski 
1. WSTĘP Od czasu powstania pierwszych systemów bankowości elektronicznej (BE) na początku lat 80 dwudziestego wieku [1] widocznym jest wzrost popularności takich usług. Dzisiaj banki oferują swoim klientom możliwość zdalnego dostępu do swojego konta bankowego za pomocą komputera lub telefonu komórkowego podłączanych do sieci Internet. Pozwala to zdalne wykonać następujące operacje: - podgląd informacji o bieżących środkach na rachunku i historii operacji; - wykonanie przelewu na rachunki wewnętrzne i obce; - złożenie wniosków o wydanie kart debetowych i kredytowych; - uzyskanie informacji o ofertach banku (takich jak: depozyt, kredyt i inne) i możliwość zarządzania nimi; - inne operacje które zostały zdefiniowane przez bank. Wraz ze zwiększeniem wykorzystania bankowości elektronicznej powstał problem ochrony zdalnie wykonywanych transakcji bankowych. Generalnym zagrożeniem dla BE jest możliwość zainfekowania narzędzi elektronicznych użytkowników banku przez cyberprzestępców i kradzież danych weryfikacji użytkownika. Pozwala to cyberprzestępcom przeprowadzać transakcje (na przykład przelewy środków z konta ofiary na własne rachunki) w imieniu właściciela konta. Obecnie dla ochrony zdalnych transakcji bankowych stosowane jest uwierzytelnienie wielopoziomowe za pomocą jednorazowych haseł. Takie hasła w branży bankowej są znane pod nazwą TANkodów od ang. Transaction Authentication Number. Dostęp do jednorazowych haseł ma tylko legalny użytkownik i każde hasło jest wykorzystane jedynie dla pojedynczej transakcji. Takie podejście pozwala potwierdzić, że inicjatorem transakcji jest legalny użytkownik, jednakże powoduje to problem dystrybucji TAN-kodów. Problem dostarczania TAN-kodów obecnie jest rozwiązany w jeden z następnych sposobów: - TAN-kody są drukowane na specjalnych kartach pod powłoką ochronną. Karta z kodami jest przekazywana użytkownikowi z wyprzedzeniem; - TAN-kod generowany jest poprzez specjalne narzędz więcej »

BIEŻĄCA TRANSFORMATA FOURIERA I PRZEKSZTAŁCENIE PAGE'A DO ANALIZY ODPOWIEDZI PRĄDOWEJ ANTENY NA POBUDZENIE IMPULSEM GAUSSA - DOI:10.15199/59.2018.8-9.54
Anna Witenberg Maciej Walkowiak 
1. WSTĘP Odpowiedzi prądowe anten na wymuszenia zewnętrznymi impulsami najczęściej analizujemy w jednej z dziedzin: częstotliwości lub czasu. W poprzednich latach transmisje wąskopasmowe przyczyniły się do zdefiniowania parametrów anten w dziedzinie częstotliwości, a co za tym idzie, do upowszechnienia badań systemów nadawczo-odbiorczych w tej dziedzinie. Obecnie popularnymi stały się transmisje szerokopasmowe i ultraszerokopasmowe (UWB), które spowodowały przesunięcie znaczącej liczby badań (i publikacji) z dziedziny częstotliwości do dziedziny czasu (lub do obydwu tych dziedzin jednocześnie). Pochodną gwałtownego rozwoju technologii UWB jest postrzeganie badań w dziedzinie czasu jako interesujących i potrzebnych. Świadczy o tym rosnąca liczba prowadzonych w ośrodkach naukowych projektów badawczych. Zjawiska fizyczne zawsze dzieją się w czasie. To w czasie je obserwujemy, rejestrujemy i analizujemy. I dlatego opis procesów w dziedzinie czasu wydaje się być czymś naturalnym. Chociaż analizy procesów w funkcji czasu wydają się być matematycznie prostszymi (generalnie nie wychodzimy poza obszar liczb rzeczywistych), to jednak nowe techniki generują niespotykane dotąd problemy numeryczne (na przykład: dokładność, stabilność i powtarzalność obliczeń). Przejście z opisem sygnału z dziedziny czasu w dziedzinę częstotliwości umożliwia transformata Fouriera (1) Odwrotna transformata Fouriera (2) przenosi sygnał z dziedziny częstotliwości w dziedzinę czasu. Istnieje jednak potrzeba takiej analizy, w której jednocześnie określimy zarówno właściwości czasowe jak i właściwości częstotliwościowe sygnałów. Jest to następny krok kiedy powinny pojawić się narzędzia (metody) do analizy w dwuwymiarowej przestrzeni czasczęstotliwość (joint time-frequency analysis). Dotyczy to głównie tzw. sygnałów niestacjonarnych (stochastycznych). Są to sygnały, których widmo (spektrum) szybko zmienia się z upływem czasu, a ich parametry możemy okr więcej »

BIOMETRIA OBRAZU DŁONI JAKO CZĘŚĆ SYSTEMU WIELOPOZIOMOWEGO UWIERZYTELNIANIA UŻYTKOWNIKA - DOI:10.15199/59.2018.8-9.9
Agata Giełczyk Michał Choraś Rafał Kozik 
1. WSTĘP W ostatnim czasie liczba aktywnych subskrypcji kart SIM wzrosła i według raportu Międzynarodowej Unii Telekomunikacji ITU1 krajach wysoko rozwiniętych przekroczyła już liczbę mieszkańców. To oznacza w praktyce, że wiele osób posiada telefon komórkowy, a znaczna część z nich posiada więcej niż jeden aktywny numer komórkowy. Telefon od dawna nie służy tylko do wysyłania wiadomości SMS i dzwonienia. Obecnie wykorzystywany jest do odbierania poczty elektronicznej, edycji dokumentów tekstowych czy arkuszy kalkulacyjnych, a także m.in. do korzystania z bankowości elektronicznej poprzez zlecanie przelewy i decydowanie o swoich finansach przez aplikację mobilną. To wszystko sprawia, że na telefonach komórkowych pojawia się wiele danych wrażliwych, które wymagają szczególnych zabezpieczeń. Istnieje wiele sposobów zwiększenia bezpieczeństwa danych przechowywanych w pamięci telefonu: wykorzystywanie numeru PIN podczas odblokowywania telefonu, używanie programów antywiruso- 1https://www.itu.int/en/ITU-D/Statistics/Pages/stat/defau lt.aspx wych, łączenie się jedynie z zaufanymi sieciami bezprzewodowymi WiFi, nie korzystanie z podejrzanych linków, instalowanie aplikacji jedynie ze sprawdzonych źródeł oraz zwracanie szczególnej uwagi na uprawnienia aplikacji (np. gra logiczna, która wymaga dostępu do kontaktów i zdjęć przechowywanych w pamięci telefonu może i powinna budzić wątpliwości użytkownika). Jednak z lektury licznych dostępnych w Internecie raportów o bezpieczeństwie urządzeń mobilnych wynika, że nie są one zabezpieczone w wystarczający sposób, a dane zgromadzone w ich pamięci mogą ze znacznym prawdopodobieństwem wyciec. W raporcie firmy NowSecure2 wskazano główne zaniedbania użytkowników w dziedzinie zabezpieczeń. Pierwszym z nich jest brak regularnej aktualizacji systemów operacyjnych - 82% urządzeń z systemem operacyjnym Android używa dwuletniej lub starszej wersji systemu. Dodatkowo urządzenia te łączą się dzien więcej »

DOBÓR FUNKCJI SKRÓTU SPEŁNIAJĄCYCH WYMAGANIA SPRZĘTOWEJ IMPLEMENTACJI FILTRU BLOOMA
Paweł Augustynowicz 
1. WPROWADZENIE Filtr Blooma jest probabilistyczną strukturą danych zaprezentowaną po raz pierwsze w roku 1970 przez B.H. Blooma, która pozwala na szybkie sprawdzenie, czy dany element występuje w zadanym zbiorze [2]. Sprawdzenie to jest jednak obarczone pewnym prawdopodobieństwem wystąpienia błędnej odpowiedzi pozytywnej (ang. false positive), które należy należy utrzymywać na możliwie niskim poziomie. Ze względu na pomysłową konstrukcję oraz małą złożoność pamięciową filtry Blooma są szeroko stosowane w różnych dziedzinach, między innymi w systemach ratingowych adresów IP, antywirusach, analizie tekstowej, sprawdzaniu pisowni i systemach baz danych [2,4,5,6]. Formalnie, filtr Blooma można reprezentować, jako tablicę 𝑚 bitów, które początkowo ustawiony są na wartość "0". Dla każdego elementu ze zbioru danych wejściowych więcej »

DYNAMICZNY WYBÓR WAG ŁĄCZY SŁUŻĄCY DO STEROWANIA RUCHEM W SIECHACH SDN Z WYKORZYSTANIEM TRANSMISJI WIELOŚCIEŻKOWEJ I AGREGACJI PRZEPŁYWÓW - DOI:10.15199/59.2018.8-9.44
Grzegorz Rzym Zbigniew Duliński Piotr Chołda 
1. WSTĘP W tradycyjnych sieciach komputerowych protokół rutingu wybiera zawsze jedną, najlepszą trasę między węzłami źródłowym a docelowym. Trasa ta obliczana jest na podstawie wag łączy. Gdy w sieci dojdzie do przeciążenia na danej ścieżce, waga przeciążonego łącza (bądź kilku łączy) powinna zostać zmieniona (podwyższona) tak, aby po przeliczeniu trasa z danego źródła do danego celu omijała to przeciążenie. W tradycyjnej sieci, po przeliczeniu ścieżek, wszystkie pakiety zostaną przekierowane na nowo obliczone trasy. Efektem tego będzie zmiana tras przepływów, co może skutkować nowymi przeciążeniami w innych miejscach sieci. Modyfikacja chociażby jednej z wag w sieci może spowodować wiele problemów: (a) przeliczenie i aktualizacja tablic rutingu przez wszystkie rutery zajmuje stosunkowo dużo czasu, (b) bardzo prawdopodobne jest wprowadzenie chwilowych pętli w rutingu powodujących straty pakietów, przeciążanie łączy do tej pory nieznacznie obciążonych, napływanie pakietów w złej kolejności itp. [1]. Oczywiste jest, że im więcej takich zmian nastąpi, tym większy chaos jest wprowadzany do sieci. Z drugiej strony, w prawie każdej sieci istnieje co najmniej jedna inna (konkurencyjna) ścieżka łącząca te same węzły źródłowe i docelowe. Wykorzystanie jej pozwala na ominięcie przeciążenia i zrealizowanie transmisji rozumianej przez nas jako transmisja wielościeżkowa. Pakiety należące do istniejących uprzednio przepływów przemieszczają się dotychczasowymi ścieżkami, zaś nowe przepływy — nowo wyznaczonymi ścieżkami. Do tej pory wiele metod transmisji wielościeżkowych zostało zaproponowanych dla różnych warstw. Ich przegląd można znaleźć m.in. w [2], [3]. Obecnie najczęściej stosowanym protokołem pozwalającym na przełamywanie domyślnego rutingu oraz inżynierię ruchu jest MPLS. Jednakże ścieżki zestawione za pomocą tego protokołu nie pozwalają na podążanie za dużą dynamiką zmian ruchu w sieciach (szczególnie w centrach danych) więcej »

ENERGOOSZCZE˛DNE CENTRUM PRZETWARZANIA DANYCH
Ewa Niewiadomska-Szynkiewicz Piotr Arabas 
1. WPROWADZENIE Post˛ep wielu dziedzin nauki, m.in. fizyki i chemii, zale˙zy od rozwoju nowatorskich energooszcz˛ednych technologii teleinformatycznych umoz˙liwiaja˛cych przetwarzanie wielkich ilo´sci danych. Według danych statystycznych obcia˛z˙enie serwerów w centrach przetwarzania danych kształtuje si˛e na poziomie 10-50% ich mo˙zliwo´sci [4]. Utrzymywanie zapasów mocy obliczeniowej zwia˛- zane jest z koniecznos´cia˛ zapewnienia gwarancji jakos´ci 1 Praca finansowana przez Narodowe Centrum Nauki, grant 2015/17/B/ST6/01885. oraz odporno´sci usług na nagłe zmiany szybko´sci napływania zada´n, co skutkuje zwi˛ekszeniem zu˙zycia energii elektrycznej. Współczesne centra przetwarzania danych udoste˛pniaja˛ce usługi chmury obliczeniowej (cloud computing) to zło˙zone, rozproszone systemy. Na efektywno´s´c działania takich systemów istotny wpływ ma szybko´s´c przetwarzania danych przez jednostki obliczeniowe oraz przepustowos´c´ ła˛cza˛cych je sieci. Na podstawie prowadzonych w ostatniej dekadzie obserwacji sieci Internet do´s´c powszechnie uwa˙za si˛e, ˙ze tempo redukcji mocy elektrycznej potrzebnej do przetworzenia jednego bitu danych ruchu sieciowego jest zbyt niskie w stosunku do rosna ˛cego wykładniczo wzrostu zapotrzebowania na przepustowos ´c´ we˛złów. Podsumowuja˛c, koszty zwia˛zane z rosna ˛cym zapotrzebowaniem na energie˛ elektryczna˛ moga˛ wywrze´c istotny wpływ na tempo rozwoju systemów HPC (high performance computing) oraz upowszechnianie si˛e nowych usług teleinformatycznych. Wykazano, ˙ze przy obecnie stosowanych rozwia˛zaniach klaster exaflopowy pobierałby gigawaty mocy. Niebagatelne znaczenie maja˛ w tym konteks´cie takz˙e aspekty ekologiczne, zwia˛zane z wzmoz˙ona˛ emisja˛CO2 do atmosfery. Strategie sterowania i mechanizmy decyzyjne dla systemów HPC i sieci teleinformatycznych, uwzgl˛edniaja ˛ce róz˙ne kryteria w ocenie ich działania, tj. techniczne, ekonomiczne oraz społeczne, stanowia˛ przedmiot bada´n pro więcej »

HaLow - WiFi DLA IoT
Mariusz Bednarczyk 
1. WPROWADZENIE Internet Rzeczy (Internet of Things, IoT) to koncepcja komunikacji między ludźmi, maszyn między maszynami, ludzi z maszynami i maszyn z ludźmi przy wykorzystaniu zasobów sieci Internet. Urządzenia, które mogą być w to włączone to nie tylko komputery, smartfony, czy moduły inteligentnych budynków, ale również różnego rodzaju czujniki i sterowniki wykorzystywane w przemyśle, transporcie, medycynie i handlu. Już dziś można znaleźć interesujące przykłady wykorzystania IoT w systemach inteligentnego opomiarowania (smart metering), monitorowania zanieczyszczenia środowiska czy nadzorowania upraw w rolnictwie. Ciekawym przykładem jest również powstające w Korei Południowej "inteligentne miasto" przyszłości (smart city) Songdo nacechowane milionami sensorów kontrolujących ulice, szkoły, biurowce, szpitale i budynki. Ale także rozwiązania w postaci czujników magnetycznych na ulicach i sensorów monitorujących ruch do sterowania zmianą świateł w Los Angeles. Są to zaawansowane technologicznie inteligentne systemy generujące olbrzymią liczbę połączeń i interakcji między komunikującymi się stronami. Według szacunków Cisco, zawartych w Global Cloud Index Study, ilość danych wygenerowanych przez aplikacje IoT do 2021 roku osiągnie 847 Zettabajtów [2]. W związku z powyższym, problemem staje się nie tylko przetwarzanie tak dużej liczby danych, ale w przypadku urządzeń bezprzewodowych również zarządzanie dostępem do medium, minimalizowanie zużycia zasobów i energii zasilania urządzeń oraz utrzymanie stabilnego połączenia pomiędzy komunikującymi się stronami. Celem artykułu jest odpowiedź na pytanie, czy standard IEEE 802.11ah spełni te wymagania i czy zastąpi on takie technologie bezprzewodowe jak ZigBee oraz Bluetooth w rozwiązaniach dla IoT. 2. STANDARD IEEE 802.11ah Ze względu na konieczność uwzględnienia ograniczeń komunikacji M2M, standard IEEE 802.11ah definiuje nowe podejście do projektu warstw PHY oraz MAC. Wars więcej »

KONCEPCJA MODELU ANALITYCZNEGO CHMURY OBLICZENIOWEJ - DOI:10.15199/59.2018.8-9.62
Sławomir Hanczewski Michał Weissenberg 
1. WPROWADZENIE Ostatnie kilkana´scie lat to okres bardzo dynamicznego rozwoju urza˛dzen´ i technologii sieciowych. Pozwolił on na zmian˛e spojrzenia na realizacj˛e usług w sieciach telekomunikacyjnych. Oferowane we współczesnych sieciach szybko´sci transmisji spowodowały, ˙ze odległo´s´c klienta od serwera oraz niezb˛edna ilo´s´c przesyłanych danych przestały mie´c znaczenie z punktu widzenia jako- s´ci realizacji usług. Siec´ przestała byc´ wa˛skim gardłem systemów telekomunikacyjnych co pozwala na oferowanie usług z praktycznie dowolnego miejsca na ´swiecie do praktycznie dowolnej lokalizacji. I to wła´snie jest podstawa ˛ chmury obliczeniowej (ang. Cloud Computing). Rosna˛ca popularnos´c´ chmur obliczeniowych sprawia, ˙ze infrastruktura ka˙zdej z nich rozwija sie niemal ˙ze ka˙zdego dnia. Oznacza to, ˙ze in˙zynierowie odpowiedzialni za utrzymanie i rozwój infrastruktury chmury musza˛miec´ do dyspozycji narze˛dzia pozwalaja˛ce na wyznaczanie charakterystyk ruchowych (QoS), w sytuacji zwie˛kszenia liczby zgłoszen´ pojawiaja˛cych sie˛ w jednostce czasu czy te˙z uruchomieniu nowej usługi. Dane takie mo˙zna uzyska´c dzi˛eki symulacji cyfrowej [1], [2], [3] lub dedykowanym modelom analitycznym. Alternatywa˛ do badan´ symulacyjnych sa odpowiednia modele analityczne. Pozwalaja˛ one, w wie˛kszo- ´sci przypadków, wyznacza´c charakterystyki systemów znacznie szybciej niz˙ pomoca˛ symulatora. W literaturze przedmiotu nie ma jednej spójnej metody, pozwalaja˛cej na modelowanie infrastruktury chmury obliczeniowej. Wynika to z faktu, ˙ze w przypadku chmury obliczeniowej nale˙zy zamodelowa´c kilka ró˙znych zasobów w ró˙znych skalach czasu. Dlatego tez˙ w artykule, autorzy podejmuja˛ prób˛e opracowania takiego modelu. Zaproponowana metoda opiera swoje działanie na modelu wia˛zki EIG (Erlang’s Ideal Grading) [4], [5], [6], który z powodzeniem był wykorzystywany do modelowania innych współczesnych systemów telekomunikacyjnych np. więcej »

KONCEPCJA SYSTEMU ZABEZPIECZENIA RADIOSTACJI POLA WALKI OPARTEGO NA MONITOROWANIU PARAMET - DOI:10.15199/59.2018.8-9.34
Joanna Głowacka Wojciech Bednarczyk Michał Ciołek Krzysztof Parobczak Jarosław Wojtuń 
1. WSTĘP W trakcie działań taktycznych najpowszechniejszym i najczęściej stosowanym systemem na współczesnym polu walki jest system łączności radiowej. System ten powinien być skalowalny oraz zapewniać szybki i niezawodny przepływ informacji. Ponadto powinien on zapewniać poufność, integralność i dostępność przesyłanych informacji. Spełnienie powyższych wymagań może okazać się szczególnie trudne w nieprzyjaznym środowisku prowadzenia operacji. Specyfika i ograniczenia środowiska, a także charakter prowadzonych działań, przyczyniają się do zmian standardowych wymagań w zakresie bezpiecznej komunikacji. Typowo stosowane mechanizmy bezpieczeństwa związane z uwierzytelnianiem, szyfrowaniem danych, wykorzystujące znane metody kryptograficzne, okazują się niewystarczające. W celu zapewnienia bezpieczeństwa łączności radiowej stosowane są różnorodne mechanizmy ochrony informacji oraz rozwiązania utrudniające wykrycie, namierzenie i przeciwdziałanie emisji własnych środków radiowych. Realizacja działań w środowisku taktycznym może wiązać się z zagrożeniem przejęcia środków łączności przez osobę nieuprawnioną. Istniejące do tej pory rozwiązania uwzględniają problem nieuprawnionego dostępu do środków łączności tylko podczas inicjalizacji działań. W przypadku przechwycenia urządzenia nieuprawniony użytkownik uzyskuje dostęp do zasobów sieci, zgodnie z wcześniej przeprowadzoną procedurą autoryzacji. Wymagane jest więc opracowanie odpowiedniego systemu bezpieczeństwa, który umożliwi wykrycie stanu uniemożliwiającego obsługę i ochronę radiostacji przez jej operatora, a tym samym możliwość przejęcia jej przez osobę nieuprawnioną. Przedstawione w artykule rozwiązanie jest odpowiedzią na wyżej opisany, często identyfikowany w publikacjach dotyczących zapewnienia bezpieczeństwa komunikacji w sieciach taktycznych, problem przejęcia uwierzytelnionych radiostacji. Dalsza część artykułu została podzielona następująco: w rozdziale drugim opi więcej »

KONCEPCJA WSPÓŁPRACY SYSTEMU STRUMIENIOWEJ TRANSMISJI DANYCH CZASU RZECZYWISTEGO STRADAR Z EUROPEJSKIM SYSTEMEM EUROSUR - DOI:10.15199/59.2018.8-9.50
Sylwester Kaczmarek Lech Smoleński 
1. WPROWADZENIE Istotnym elementem integracji państw członkowskich w ramach Unii Europejskiej jest utworzenie strefy Schengen, czyli strefy swobodnego przemieszczania się, bez granic wewnętrznych, co wiąże się ze wspólną odpowiedzialnością państw należących do niej za zapewnienie spójnych standardów zarządzania granicami i bezpieczeństwem na granicach zewnętrznych. Strefa Schengen bez granic wewnętrznych może istnieć jedynie pod warunkiem zagwarantowania skutecznego zabezpieczenia i ochrony jej granic zewnętrznych. Niezbędna jest ścisła współpraca państw wchodzących w skład strefy Schengen i koordynacja działań związanych z ochroną zewnętrznej granicy tej strefy, co wymaga sprawnego przepływu informacji w czasie zbliżonym do rzeczywistego, pomiędzy instytucjami i służbami zaangażowanymi w działania na tych granicach w poszczególnych krajach. W komunikacji pomiędzy państwami członkowskimi zadanie to spełnia system EUROSUR, łączący ze sobą Agencję FRONTEX [1] i centra komunikacyjne w poszczególnych krajach Unii, które mają bezpośredni dostęp do swoich systemów krajowych. Agencja zapewnia wymianę kluczowych informacji wszystkim służbom granicznym. Zadaniem systemu EUROSUR (Europejski system nadzorowania granic - European Border Surveillance System) [2] jest utworzenie wspólnych ram umożliwiających wymianę informacji, mającą na celu poprawę zarządzania granicami zewnętrznymi Europy. Podstawą działania systemu EUROSUR jest sieć Krajowych Centrów Koordynacyjnych - KCK (NCC - National Coordination Centre). Główną rolą KCK jest koordynacja działań związanych z nadzorem granicznym na poziomie krajowym i służenie w charakterze punktu wymiany informacji. Krajowe centrum koordynacji (KCK) koordynuje i prowadzi wymianę informacji między wszystkimi organami krajowymi odpowiedzialnymi za ochronę lądowych i morskich granic zewnętrznych, a także z pozostałymi krajowymi ośrodkami koordynacji i z Agencją. Dane przetwarzane przez persone więcej »

KONCEPCJA ZDECENTRALIZOWANEGO SYSTEMU KOMUNIKACYJNEGO Z
Przemysław ŚCIBIOREK Zbigniew PIOTROWSKI 
Bitcoin oraz Blockchain to w ostatnim czasie zagadnienia, które są jednym z głównym tematów badań naukowców. Twórca Bitcoina - Satoshi Nakamoto [1], opracował technologię, która może zrewolucjonizować wiele sektorów gospodarki oraz przemysłu. Sektor finansowy, ubezpieczenia, usługi notarialne to obszary,w których Blockchain został z powodzeniem zaimplementowany [2].Blockchain to technologia opierająca się na współpracy społeczności [2]. Każdy z użytkowników sieci posiada kopię łańcucha (chain), w którym zapisane są wszystkie transakcje wykonywane w całej sieci. Każda , z transakcji ma swój oddzielny blok, w którym zapisy-zapisywane są wszystkie związane z transakcją informacje (rys. 1). Ponadto obliczana jest funkcja hash całej struktury przy pomocy wybranej funkcji skrótu. Siła działania technologii Blockchain polega na tym, iż autoryzacja każdej z transakcji nie wymaga udziału strony trzeciej. To użytkownicy łańcucha autoryzują operacje poprzez obliczenie tzw. Proof-of-Work, PoW [3]. W zależności od implementacji wartość ta jest wynikiem pewnych operacji matematycznych, które jednoznacznie potwierdzają poprawność operacji. W Bitcoinie [1] wartością PoW jest liczbą, jaką należy dodać do bloku, aby cztery pierwsze cyfry jego funkcji skrótu (funkcji haszującej) były zerami. Takie podejście zapewnia odporność, decentralizację oraz transparentność wszystkich transakcji w łańcuchu.Blockchain znalazł już zastosowanie w wielu więcej »

KRYPTOANALIZIA ALGEBRAICZNA RODZINY SZYFRÓW BLOKOWYCH SPECK - DOI:10.15199/59.2018.8-9.49
Władysław Dudzic 
1. WSTĘP 1.1. Szyfr blokowy Szyfr blokowy jest rodzajem szyfrowania symetrycznego. W uproszczeniu jest to przekształcenie, które przekształca n-bitowy blok P przy wykorzystaniu mbitowego klucza K w n-bitowy szyfrogram C. Do realizacji tego przekształcenia zazwyczaj wykorzystuje się tzw. funkcję rundy wykonywaną r-krotnie. Obecnie najczęściej wykorzystywanym szyfrem blokowym jest algorytm Rijndael opracowany przez Vincent'a Rijmen'a i Joan'a Daemen'a w 1997 roku. Szyfr ten został wybrany przez NIST na standard szyfrowania AES (ang. Advanced Encryption Standard) w 2001 roku. 1.2. Kryptoanaliza algebraiczna Kryptoanaliza to dział kryptologii, zajmujący się badaniem bezpieczeństwa algorytmów kryptograficznych. Jej zadaniem jest opracowywanie metod pozwalających odzyskać klucz tajny na podstawie szyfrogramu lub tekstu jawnego i szyfrogramu. Idea kryptoanalizy algebraicznej polega na reprezentacji algorytmu kryptograficznego w postaci układu równań, w którym niewiadomymi są zmienne klucza. Rozwiązanie tego układu pozwala określić odpowiednie wartościowanie bitów klucza, a tym samym odzyskać klucz tajny wykorzystany do zaszyfrowania wiadomości. Teoretycznie do skutecznego ataku wystarczy wykorzystanie jednej pary tj. tekstu jawnego i odpowiadającego mu szyfrogramu [1]. 1.3. SAT solver Nazwą SAT solver zwyczajowo określa się oprogramowanie rozwiązujące problem spełnialności klauzul logicznych (SAT). Sprowadza się to do znalezienia takiego wartościowania zmiennych (0 lub 1), dla którego wszystkie formuły logiczne danego problemu SAT są spełnione. Problem ten jest problemem NP-zupełnym, co zostało udowodnione przez Stephana Cook’a w 1971 roku [3]. Na chwilę obecną nie ma znanego algorytmu, który skutecznie rozwiązywałby każdy problem SAT i uważa się, że taki algorytm nie istnieje. Dowód tej hipotezy nie został jednak przeprowadzony, zaś samo jego przeprowadzenie równoważne jest udowodnieniu, że P = NP. Obecnie istniej więcej »

MECHANIZM BYPASS DLA DYNAMICZNEGO RUCHU PRZESYŁANEGO POMIĘDZY CENTRAMI DANYCH W SIECIACH IP/EON - DOI:10.15199/59.2018.8-9.46
Edyta Biernacka Jerzy Domżał Piotr Boryło 
1. WSTĘP Wraz z popularnością usług świadczonych przez centra danych DC (Data Center), wzrasta nie tyko ruch wewnątrz DC i do użytkowników końcowych, ale również obserwowany jest przyrost ruchu generowanego pomiędzy centrami danych. Szacowana wartość ruchu pomiędzy DC dla lat 2016-2021 może osiągnąć nawet 1,381 EB [1]. Przesłanie tak dużej ilości danych pomiędzy DC w warstwie IP (Internet Protocol) wzdłuż jednościeżkowych tras wyznaczonych przez protokół rutingu, np. OSPF (Open Shortest Path First) może doprowadzić do przeciążenia niektórych łączy oraz zwiększenia liczby odrzuconych zgłoszeń. Zasoby warstwy IP mogą okazać się niewystarczające. W związku z rosnącym zapotrzebowaniem na przepustowość poszukiwane są mechanizmy, które w sposób tani dostarczą dodatkowe zasoby w chwili natłoku. Jednym z proponowanych rozwiązań jest mechanizm bypass. Koncepcja mechanizmu zakłada, że część zasobów jest dostępnych dla warstwy IP, natomiast pozostała część (niewidoczna dla IP) jest alokowana w chwili natłoku. Nadmiarowy ruch zostaje obsłużony dzięki przekierowaniu i przesłaniu nowymi ścieżkami. Mechanizm bypass jest dobrze znanym rozwiązaniem w sieciach optycznych z warstwą IP, szczególnie w sieciach IP/WDM (Wavelength Division Multiplexing). Przykładowo w pracach [2], [3] autorzy analizują mechanizm bypass w sieciach sterowanych programowo IP/WDM. Rozważając nowoczesną elastyczną sieć optyczną EON (Elastic Optical Network), w której są wykorzystywane zaawansowane techniki optycznej modulacji OFDM (Orthogonal Frequency-Division Multiplexing) [4], [5] oraz drobnoziarnisty podział zasobów [6] należy poświęcić więcej uwagi mechanizmowi bypass w sieciach IP/EON. Niniejszy referat przedstawia analizę użyteczności mechanizmu bypass dla ruchu pomiędzy centrami danych w sieciach IP/EON. Dodatkowo rozbudowano model IP/EON o aspekt wielkości udostępnionego widma, który w [7] został uproszczony. Podobnie jak w pracach [2], [3], [7] do zarz więcej »

METODA ROZMIESZCZANIA TREŚCI DLA USŁUGI ADAPTACYJNEGO STRUMIENIOWANIA WIDEO WYKORZYSTUJĄCEJ TECHNIKĘ MGŁY OBLICZENIOWEJ - DOI:10.15199/59.2018.8-9.35
Tomasz Motyka Andrzej Bęben 
1. WPROWADZENIE Metody adaptacyjnego strumieniowania obrazów wideo HAS (HTTP Adaptive Streaming) [1] są obecnie powszechnie wykorzystywane przez dostawców usług wideo, takich jak Netflix, YouTube. Głównym celem metod HAS jest zapewnienie ciągłości odtwarzania obrazu wideo przez dostosowywanie jakości pobieranego wideo do warunków ruchowych panujących na ścieżce przekazu oraz aktualnego obciążenia serwera strumieniującego. Adaptacyjne strumieniowanie wymaga, aby materiały wideo były udostępnione w wielu reprezentacjach (nazywanych również profilami wideo), różniących się jakością wideo wynikającą z rozdzielczości wideo czy też zastosowanego kodowania. Z tego względu, metody HAS wymagają przechowywania znacząco większej ilości danych w porównaniu do metod dystrybucji treści bez adaptacji. Obecnie, dostawcy usług wideo wykorzystują zasoby chmurowe do przechowywania i strumieniowania wideo, oferując swoje usługi w modelu VaaS (Video as a Service) [2]. Model VaaS pozwala znacząco zmniejszyć koszty świadczonych usług dzięki rezygnacji z utrzymania dedykowanej infrastruktury, wykorzystaniu wysokiego stopnia agregacji zasobów w centrach danych oraz stosowaniu zasady "płać za użycie" w rozliczeniach z operatorem chmury. Jednakże, znacząca odległość pomiędzy użytkownikiem a centrum danych strumieniującym wideo powoduje istotny wzrost ruchu w sieci oraz zmniejsza efektywność adaptacji ze względu na występowanie znaczącego opóźnienia w pętli sterowania. Ponadto, koncentracja ruchu w centrum danych zwiększa prawdopodobieństwo wystąpienia natłoku skutkującego pogorszeniem jakości odtwarzanego wideo lub niedostępnością usługi wideo. Z tego względu, operatorzy usług wideo rozważają wykorzystanie mgły obliczeniowej (Fog Computing) [3] jako rozszerzenie usług chmurowych, umożliwiające przeniesienie popularnej treści wideo do urządzeń zlokalizowanych na brzegu sieci w otoczeniu użytkownika. Wykorzystanie techniki mgły obliczeniowej pozw więcej »

METODY MINIMALIZACJI ZAKŁÓCEŃ W PRACY SIECI RADIOWYCH INSTALOWANYCH W WARUNKACH KRYZYSOWYCH - DOI:10.15199/59.2018.8-9.32
Kachel Leszek 
1. WSTĘP W ostatnich latach w Polsce występują coraz częściej zjawiska atmosferyczne o bardzo gwałtownym przebiegu. Powodują one nie tylko duże zniszczenia dotyczące obiektów budowlanych, zniszczenia w drzewostanie na danym obszarze, uszkodzenia infrastruktury drogowej i kolejowej oraz niestety również ofiary śmiertelne. Występujące tornado w województwie pomorskim w roku 2015 spowodowało zniszczenie ogromnego obszaru lasu, zniszczenie wielu zabudowań w okolicznych wsiach i spowodowało ofiary smiertelne. Połamane drzewa, uszkodzone drogi uniemożliwiały szybkie dotarcie z niezbędną pomocą ze strony służb medycznych, straży pożarnej, policji oraz zablokowanie w kilku miejscach szlaku kolejowego przez połamane drzewa i zerwaną sieć trakcyjną uniemożliwiału również dotarcie z pomocą. W takich sytuacjach niezbędne jest zapewnienie mieszkańcom odszaru objętego kataklizmem niezbędnej pomocy i szybką regenerację infrastruktury komunikacyjnej. Wymaga to zbudowania i zapewnienia działania dorażnej dobrze funkconującej sieci radiokomunikacyjnej dla wszystkich służb działających na tym obszarze. Bardzo często w ocalałych obietach muszą zostać rozmieszczone doraźnie zainstalowane urządzenia radiokomunikacyjne wszystkich służb biorących udział w akci ratunkowej. Często również w takiej sytuacji występują awarie sieci radiokomunikacyjnej GSM, co stanowi dodatkowe utrudnienie w prowadzeniu akcji ratowniczej Występowanie jednoczesne wielu służb radiokomunikacyjnych zlokalizowanych w bliskim sąsiedztwie może utrudniać ich pracę poprzez wzajemne zakłócanie odbioru radiowego szczególnie, jeżeli te służby korzystają z sieci radiowych FM. Duże zagęszczenie sieci radiowych FM różnych służb pracujących na danym terenie oraz obecność niepożądanych sygnałów pochodzenia przemysłowego stało się dość powszechne. Sygnały zaburzeń elektromagnetycznych docierające do odbiornika wpływają niekorzystnie na jego pracę poprzez pogarszanie jego parametr więcej »

METODY WYBORU DEKOMPOZYCJI DLA ALGORYTMU Z WYKORZYSTANIEM ZBIORÓW NIEZGODNOŚCI I ICH WPŁYW NA MINIMALIZACJĘ GENERATORÓW INDEKSÓW - DOI:10.15199/59.2018.8-9.36
Tomasz Mazurkiewicz Tadeusz Łuba 
1. WPROWADZENIE Funkcjami generowania indeksów [8] lub po prostu generatorami indeksów nazywamy cyfrowe układy sprzętowe, których zadaniem jest wyodrębnianie ze strumienia danych poszukiwanych wartości. W dobie Internetu Rzeczy (Internet of Things) oraz Big Data, zadanie to zyskuje coraz bardziej na znaczeniu. Generatory indeksów znajdują zastosowanie w kontrolerach TAC (Terminal Access Controller) czy tablicach trasowania adresów IP, a także w skanerach antywirusowych oraz realizacjach pamięci CAM (Content Adressable Memory). Istotną barierą w implementacjach funkcji generowania indeksów są duże rozmiary pamięci niezbędnych do ich realizacji. Pojedynczy adres MAC ma 48 bity, co oznacza, że realizacja sprzętowa powinna umożliwiać przechowywanie ustalonej wartości dla dowolnego z 248 możliwych adresów. Głównym zadaniem staje się zatem opracowanie procedury efektywnej redukcji i kompresji argumentów, która pozwoli zminimalizować wykorzystanie pamięci. Dla problemu redukcji argumentów udało się opracować skuteczne rozwiązania [2], [4]. Okazują się one jednak niewystarczające w przypadku funkcji generowania indeksów. Dla koderów m z n, używanych jako standardowe benchmarki, uzyskiwana jest redukcja liczby zmiennych zaledwie o 1. Spowodowało to rozwój nowych metod syntezy tego typu funkcji, m.in. z wykorzystaniem dekompozycji liniowej [1], [5], [9]. Celem niniejszego artykułu jest dalsze rozwinięcie metody zaproponowanej w [2] poprzez zaproponowanie nowej metody wyboru dekompozycji w poszczególnych iteracjach działania algorytmu. Dodatkowo wskazano konkurencyjność opracowanego rozwiązania względem rozwiązań dostępnych w literaturze dających najlepsze wyniki [1], [9]. 2. DEKOMPOZYCJA Z BRAMKAMI XOR Liczba zmiennych do reprezentacji funkcji boolowskiej może zostać zmniejszona dzięki zastosowaniu algorytmu dekompozycji liniowej. Algorytm ten pozwala na realizację funkcji za pomocą układu z warstwą liniową oraz warstwą funkc więcej »

MODELOWANIE KANAŁU DLA BEZPRZEWODOWEJ KOMUNIKACJI OPTYCZNEJ W POMIESZCZENIU W OPARCIU O ZMODYFIKOWANY ALGORYTM MONTE CARLO - DOI:10.15199/59.2018.8-9.60
Marcin Kowalczyk Jerzy Siuzdak 
1. WSTĘP Jednym z kluczowych elementów w procesie skutecznego projektowania systemów optycznej komunikacji bezprzewodowej przeznaczonych do pracy w pomieszczeniach zamkniętych jest uwzględnienie wpływu kanału transmisji. Geometria pomieszczenia, rodzaj użytych materiałów, obecność osób oraz przedmiotów w pomieszczeniu, jak również położenie nadajnika(ów) i odbiornika(ów) oraz zachowanie bądź też nie linii bezpośredniej widoczności LOS (ang. Line of Sight) mogą w znaczący sposób wpływać na warunki realizacji transmisji. W wielu przypadkach równie istotnym może być pojawianie się docierających do odbiornika tzw. sygnałów rozproszonych. Powstają one na skutek zjawiska odbicia oraz rozproszenia światła w pomieszczeniu. W zależności od warunków prowadzenia transmisji mogą one docierać do odbiornika z różnym nasileniem oraz opóźnieniem powodując, że sygnał odbierany może ulegać różnego rodzaju zniekształceniom w tym m.in. rozmywaniu (zjawisko dyspersji). Ze względu na sposób działania, w tym w szczególności wykorzystywanie ścieżki bezpośredniej widoczności LOS, systemy bezprzewodowej transmisji optycznej OWC (ang. Optical Wireless Communications) pracujące w pomieszczeniach możemy podzielić na systemy LOS i NLOS (ang. Non Line of Sight). Te ostatnie w swoim działaniu wykorzystują sygnały rozproszone. Obecność ścieżki LOS w wielu przypadkach determinuje właściwości transmisyjne systemu. Jednakże nawet w tego typu systemach potencjalny wpływ obecności sygnałów rozproszonych docierających do odbiornika nie może być całkowicie pominięty w procesie projektowania i oceny końcowej. Co więcej, udział sygnału LOS w sygnale odbieranym w stosunku do kontrybucji sygnałów rozproszonych może ulegać znaczącym wahaniom, w zależności od konkretnej chwilowej realizacji łącza transmisji, ze względu m.in. na możliwe zmiany położenia odbiornika względem nadajnika. Podejściem umożliwiającym uwzględnianie podczas projektowania potencjalnego wpływ więcej »

MODYFIKACJE ALGORYTMU DEKODOWANIA "BIT FLIPPING" W SYSTEMACH ASYMETRYCZNYCH OPARTYCH NA TEORII KODOWANIA - DOI:10.15199/59.2018.8-9.25
Artur Janoska 
1. WSTĘP Idea kryptografii asymetrycznej opiera się na wykorzystaniu dwóch rodzajów kluczy: klucza publicznego do szyfrowania wiadomości oraz klucza prywatnego, który jest niezbędny do odszyfrowania wiadomości. Aby kryptosystem klucza publicznego był bezpieczny, przyjmuje się, że wiadomość nie powinna być możliwa do odszyfrowania przy użyciu samego klucza publicznego. W praktyce uznaje się, że wystarczającym jest, gdy proces odszyfrowania wiadomości jest trudny obliczeniowo. Korzystając z tej koncepcji pojawił się szereg krypotosytemów opartych na problemach trudnych obliczeniowo. Jednym z takich systemów jest system RSA. System bazuje na problemie faktoryzacji dużych liczb. Innym rozwiązaniem jest system Elgamala opierający się na problemie logarytmu dyskretnego. Istotnym ograniczeniem wskazanych systemów zabezpieczeń jest fakt, że można dla nich w czasie wielomianowym znaleźć klucz prywatny, wykorzystując m. in. algorytm Shora, wykonywany na komputerze kwantowym. Z uwagi na to, takie systemy w dłuższym okresie czasie nie są uważane za bezpieczne. Obecnie w centrum zainteresowania, są systemy alternatywne, które nie bazują na problemach z teorii liczb. Jednym z obszarów, szeroko badanych pod kątem wykorzystania w kryptografii asymetrycznej, jest teoria kodowania. Pierwszym zaproponowanym algorytmem opartym na teorii kodowania, jest kryptosystem przedstawiony przez J. R. McEliece'a [6], który wykorzystuje binarne kody Goppy. Zaproponowany system charakteryzuje się bardzo szybkim szyfrowaniem i deszyfrowaniem. Jednak aby system był bezpieczny, musimy stosować klucze publiczne o bardzo dużych rozmiarach. Skutkiem czego może być fakt, że ten system jest nie praktyczny. Zgodnie z [6], w celu osiągnięcia bezpieczeństwa na poziomie 80 bitów (odpowiedniego dla systemów symetrycznych) w systemach asymetrycznych opartych na kodach Goppy, należałoby użyć klucza publicznego o długości 460647 bitów. W literaturze pojawiło się wiel więcej »

Monitoring widma z wykorzystaniem platformy sprzętowej USRP-2920 - DOI:10.15199/59.2018.8-9.40
Krystian Grzesiak 
1. WSTĘP Ograniczone zasoby widmowe są kluczowym problemem łączności bezprzewodowej. Stąd też idea tzw. radia kognitywnego, które w sposób inteligentny korzysta z medium transmisyjnego. Systemy kognitywne poszukując dostępnych zasobów widma potrafią wykrywać sygnały użytkownika pierwotnego (PU - Primary User), w zadanym paśmie częstotliwości. Niewykorzystywane w danej chwili zasoby częstotliwości przydzielane są tzw. użytkownikom wtórnym (Secondary User) i zwalniane są natychmiast, gdy stwierdzona zostanie obecność w kanale PU. Monitorowanie widma może przyjmować różne struktury organizacyjne: autonomiczną lub też kooperacyjną. Do wykrywania sygnałów zwykle wykorzystuje się detektory energii, cyklostacjonarności, w oparciu o filtry dopasowane lub wartości własne macierzy kowariancji. Zasadniczym problemem jest zaprojektowanie takiego detektora, żeby jego działanie było poprawne (mierzone prawdopodobieństwem detekcji i fałszywego alarmu) szczególnie w warunkach słabego sygnału PU i silnych zakłóceń. W artykule skupiono się na dwóch detektorach: energii i cyklostacjonarności. Zostały one zrealizowane w oparciu o platformę radia programowalnego USRP- 2920 (Universal Software Radio Peripherial) i oprogramowania LabView. Sygnałem testowym, ze względu na powszechność wykorzystania w łączności bezprzewodowej, był sygnał OFDM. Artykuł stanowi rozszerzenie dotychczasowych teoretycznych rozważań autora [1,2] i ma na celu zweryfikowanie działania detektorów w oparciu o układy programowalne i rzeczywiste sygnały. 2. Środowisko testowe 2.1. Platforma sprzętowa USRP-2920 USRP-2920, jest uniwersalną platformą oferowaną przez firmę National Instruments, która umożliwia implementację systemów radiowych pracujących w paśmie do 2.2 GHz. USRP stanowi zasadniczą część sprzętową do generacji sygnałów radiowych, zaś część programowa realizowana jest w oparciu o oprogramowanie LabView (ewentualne GNU Radio) usadowiona na komputerze klasy P więcej »

NAJNOWSZE ZASTOSOWANIA TECHNOLOGII GRANULAR COMPUTING, PROPOZYCJA TAKSONOMII ORAZ I PRZYDATNOŚĆ W CYBERBEZPIECZEŃSTWIE - DOI:10.15199/59.2018.8-9.10
Marek Pawlicki Michał Choraś Rafał Kozik 
1. WSTĘP Wirusy, trojany, spyware, ataki SQL Injection i cross-site scripting [15] są częścią codziennego życia. W Styczniu 2018 trojan powstały na bazie kodu Bank- Bota spustoszył portfele użytkowników aplikacji bankowych w Polsce. Kod Polskiego BankBota różnił się wystarczająco od innych przykładów tej rodziny, by nie zostać wykrytym przez ochronę antywirusową Google Play Store. Po ściągnięciu na telefon, jako część niewinnej aplikacji, wykradał dane dostępowe do kont bankowych [3]. Podatność eBaya na umieszczenie kodu java- Script w ogłoszeniach sprzedażowych została wykorzystana, by przekierowywać użytkowników do podstawionej strony [7]. Wystarczyło, że użytkownik kliknął w link, by jego przeglądarka została przejęta [16]. W marcu 2018 w firmie UnderArmour wykryto wyciek danych dotyczących 150 milionów użytkowników aplikacji MyFitnessPal. Jeden z ekspertów wypowiadający się na łamach BBC skwitował zdarzenie jako ‘"Po prostu kolejny dzień w Internecie" [9]. Ciągłe ryzyko ataków cybernetycznych spowodowało powstanie całego wachlarza systemów ich wykrywania. Można je ogólnie posegregować w dwie kategorie: oparte o sygnaturę ataku, oraz detektory anomalii. Systemy oparte o sygnaturę do wykrywania niepożądanych działań wykorzystują repozytorium znanych ataków. Podejścia oparte o anomalie z kolei wykorzystują model zachowania w sieci i szukają odchyleń od ‘normalności’ [6]. Wrodzy użytkownicy korzystają z obfuskacji w celu obejścia detektorów sygnaturowych. Badania wskazują, że znany kod pozostaje kompletnie niezauważony przez wiele najnowszych detektorów, jeśli tylko zostanie zniekształcony znanymi metodami obfuskacji [4]. Kolejną wadą systemów sygnaturowych jest podatność na ataki dnia zerowego. Detektory anomalii potrafią poradzić sobie tak z obfuskacją jak z atakami dnia zerowego, wykorzystując przybliżenie typowego ruchu sieciowego by oflagować potencjalne ataki. Kiedy detektor zauważy jednak zacho więcej »

Nowy algorytm adaptacji uwzględniający metryki jakości postrzeganej przez użytkownika dla adaptacyjnego strumieniowania wideo - DOI:10.15199/59.2018.8-9.5
Piotr TRUSZCZYŃSKI Andrzej BĘBEN 
Adaptacyjne strumieniowanie obrazów wideo HAS (HTTP Adaptive Video Streaming) [1], [2] jest obecnie powszechnie wykorzystywane przez dostawców usług wideo, np. YouTube, Netflix. Głównym celem metod HAS jest zapewnienie ciągłości odtwarzania obrazu wideo przez dostosowywanie jakości pobieranego wideo do warunków ruchowych panujących na ścieżce przekazu oraz aktualnego obciążenia serwera strumieniującego. W takim systemie podstawowym elementem odtwarzacza jest algorytm adaptacji. Odpowiada on za wyznaczenie reprezentacji wideo dla pobieranych kolejno jego segmentów. Istniejące obecnie algorytmy adaptacji dążą do wyboru reprezentacji o najwyższej przepływności bitowej, zakładając bezpośrednią zależność pomiędzy jakością wideo a przepływnością bitową. Należy jednakże zwrócić uwagę, iż wybór reprezentacji wideo o najwyższej przepływności niekoniecznie prowadzi do maksymalizacji jakości postrzeganej przez użytkownika. Przyczyną tego jest znaczne zróżnicowanie jakości zakodowanych segmentów, wynikające ze stosowanych metod kodowania oraz wpływ efektów zmiany reprezentacji (częstości, amplitudy) na jakość QoE. W artykule zaproponowano nowy algorytm, który bezpośrednio uwzględnia wartości metryk QoE do adaptacji, opracowano prototyp, implementując proponowany algorytm w odtwarzaczu dash.js oraz przeprowadzono eksperymenty w infrastrukturze badawczej PLLAB, których celem jest porównanie efektywności proponowanego rozwiązania. ANALIZA ALGORYTMÓW ADAPTACJI Celem algorytmów adaptacji jest dostosowanie reprezentacji pobieranych segmentów wideo do aktualnych warunków ruchowych na ścieżce przekazu oraz do obciążenia serwerów strumieniujących wideo. Można wyróżnić trzy podstawowe klasy algorytmów adaptacji [2]. - Algorytmy RBA (Rate-Based Adaptation) oparte na estymowaniu dostępnej przepływności bitowej. Wybierają one reprezentację wideo o przepływności bitowej nieprzekraczającej estymowanej przepływności bitowej dostępnej w sieci. Oszacow więcej »

O TRÓJMIANACH NIEROZKŁADALNYCH NAD GF(2) TOWARZYSZĄCYCH WIELOMIANOM POSTACI x2.3l+x3l+1 - DOI:10.15199/59.2018.8-9.48
Paweł Augustynowicz Andrzej Paszkiewicz 
1. WSTĘP Wielomiany nierozkładalne w naturalny sposób pojawiają się przy omawianiu struktury algebraicznej ciał skończonych [5]. W teorii kodowania [3], [4], [10] stanowią one podstawowy element konstrukcji metod wykrywania błędów i ich korekcji w kanałach telekomunikacyjnych. Występują też często w kryptografii [7]. Wiele popularnych dziś i powszechnie dostępnych przez Internet usług teleinformatycznych [12], nie mogłoby być realizowanych bez wykorzystania arytmetyki modularnej opartej na wielomianach nierozkładalnych. Skala wykorzystania kryptografii i ilość świadczonych na jej bazie usług sieciowych jest tak ogromna, że oprócz oczywistego wymagania na bezpieczeństwo algorytmów kryptograficznych przywiązuje się wielką wagę do ich szybkości. Z tego powodu m.in. w rozwiązaniach kryptograficznych do realizacji arytmetyki wykorzystuje się wielomiany binarne o małej liczbie niezerowych współczynników zwane krótkimi. Najczęściej są to trójmiany a jeżeli takich nie ma wówczas stosuje się pięciomiany (odpowiednio trzy lub pięć niezerowych współczynników) albo wielomiany osadowe, w których liczba niezerowych współczynników zależy logarytmicznie od stopnia wielomianu [1]. W [8] analizowana była klasa wielomianów nierozkładalnych nad ciałem GF(2) postaci 𝑋2𝑛 + 𝑋𝑛 + 1. Jedynymi wartościami 𝑛, dla których wielomiany te są nierozkładalne nad GF(2) są liczby postaci 𝑛 = 2 ∙ 3𝑙 . Interesującym jest pytanie jakie jeszcze inne wielomiany stopnia 𝑛 = 2 ∙ 3𝑙 są nierozkładalne nad GF(2). W cytowanej pracy [8] przedstawiono pełną listę takich wielomianów dla liczb naturalnych 𝑙 ≤ 9. W niniejszym artykule uzupełniamy tę listę o wartości 10 ≤ 𝑙 ≤ 13. Poczynione obserwacje pozwalają wskazać 9 nieskończonych klas wielomianów nierozkładalnych nad GF(2), które mają stopień 𝑛 = 2 ∙ 3𝑙 . 2. PRZEPROWADZONE BADAN więcej »

O WYKORZYSTANIU RACHUNKU SIECIOWEGO W ANALIZIE RUCHU W SYSTEMACH KOMUNIKACJI BEZPRZEWODOWEJ - DOI:10.15199/59.2018.8-9.38
Andrzej Borys 
1. WSTĘP W artykule zostało przedstawione nowe narzędzie matematyczne dla analizy systemów kolejkowych, nazywane rachunkiem sieciowym (ang. network calculus), w kontekście możliwości jego wykorzystania w obliczeniach wydajności, projektowaniu i optymalizacji sieci bezprzewodowych różnego rodzaju. Rachunek sieciowy można postrzegać jako zbiór technik obliczeniowych oraz teorię uzupełniającą klasyczną teorię kolejek (obsługi masowej), która staje się szczególnie przydatna, gdy ta ostatnia nie pozwala na otrzymanie zadowalających wyników. Ma to miejsce, przykładowo, w analizie sieci komputerowych, gdyż najczęściej różnią się one bardzo (ich architektura i sposób działania) od stacjonarnych sieci telefonicznych. Przydatność rachunku sieciowego w analizie sieci komputerowych we wszechstronny sposób udokumentowali J.-Y. Le Boudec i P. Thiran w monografii [1]. Ojcem rachunku sieciowego jest R. Cruz, który na początku roku 1991 opublikował dwa artykuły [2, 3] na temat przez siebie wymyślonego, nowego sposobu obliczania opóźnień w sieciach komunikacyjnych. Te ww. prace zawierały jednakże dużo więcej; tak naprawdę została przedstawiona w nich cała teoria na ten temat. To były narodziny teorii i technik nazywanych dzisiaj deterministycznym rachunkiem sieciowym. W następnych latach był on intensywnie rozwijany w wielu ośrodkach naukowych na świecie i doprowadził do powstania jego stochastycznej wersji. Stochastyczna gałąź rachunku sieciowego powstała głównie w związku z zapotrzebowaniem na dokładniejsze oszacowania zmian parametrów jakościowych i wydajnościowych sieci niż te, które można uzyskać korzystając z jego deterministycznej wersji. Sieci bezprzewodowe charakteryzują się tym, że nie tylko przesyłane w nich sygnały i dane trzeba opisywać korzystając z technik probabilistycznych, ale również wykorzystywane kanały radiowe. Z tego powodu stochastyczny rachunek sieciowy wydaje się być naturalną metodą do stosowania w opisie ruc więcej »

POMIAR MAKSYMALEGO POZIOMU HARMONICZNYCH DLA TERMINALI SATELITARNYCH VSAT - DOI:10.15199/59.2018.8-9.31
Rafał Przesmycki Marian Wnuk 
1. WSTĘP Stacje VSAT (ang. Very Small Aperture Terminals) są małymi, tanimi naziemnymi stacjami satelitarnymi, które wyposażone są w niewielkie anteny (typowo od 1 m do 2 m), nadajniki RF małej mocy (typowo od 0,5 W do 2 W) oraz w modemy i przetworniki sygnałów, tworzące zwartą konstrukcję. Stacje mogą być bardzo łatwo instalowane na dachu, na ścianie lub na parkingu samochodowym przed biurowcem użytkownika, w którym są umieszczane urządzenia końcowe. Stacje mogą być wykorzystywane w sposób bardzo wygodny i ekonomiczny w celu połączenia urządzeń końcowych użytkowników z głównym komputerem, umieszczonym w odległym centrum przetwarzania danych. Stacje VSAT są zwykle wykorzystywane do przekazywania danych cyfrowych. Jednakże jest możliwe użycie ich do transmisji sygnałów dźwięku i/lub obrazu, wyposażając je w odpowiednie kodery/dekodery dźwięku/obrazu lub odbiorniki TV. W celu demodulacji analogowych sygnałów FM TV. Rys. 1. Sieć VSAT o konfiguracji gwiaździstej Stacje VSAT często pracują w sieci gwiaździstej, jak przedstawiono na rys. 1. Stacje VSAT komunikują się z dużą stacją naziemną, zwaną stacją centralną. W tym przypadku rodzaj modulacji, przepływność transmisyjna, kodowanie i metody dostępu dla kanału wychodzącego (od stacji centralnej do stacji VSAT) oraz dla kanału przychodzącego (od stacji VSAT do stacji centralnej) są zwykle zróżnicowane, w celu efektywnego wykorzystania kanału satelitarnego, przy zastosowaniu metod zwielokrotnionego dostępu. W tego typu sieciach VSAT dane użytkownika są zwykle przetwarzane przez stacje VSAT i stację centralną, tak aby efektywnie wspomagać różnorodne protokoły sieci komputerowej. Rys. 2. Sieć VSAT o konfiguracji punkt - punkt Są także używane połączenia punkt - punkt między stacjami VSAT, jak pokazano na rys. 2. W tym przypadku rodzaj modulacji oraz format nadawanych i odbieranych przez stację VSAT sygnałów jest zwykle taki sam, a dane użytkownika przechodzą zwykle przez sieć więcej »

PORÓWNANIE DETEKCJI OBWIEDNI I DETEKCJI SYNCHRONICZNEJ W RADIOODBIORNIKACH LOTNICZYCH VHF - DOI:10.15199/59.2018.8-9.39
Szymon Wiszniewski 
1. WSTĘP W odbiornikach radiodyfuzyjnych i odbiornikach pracujących w systemach radiokomunikacji, gdzie stosowana jest modulacja amplitudy z dwiema wstęgami bocznymi i falą nośną (AM z pełnym widmem), w większości przypadków używane są detektory obwiedni. Argumenty przemawiające za tą metodą demodulacji to prosta budowa układu oraz brak konieczności synchronizacji częstotliwości i fazy sygnałów odbieranego i generowanego lokalnie w odbiorniku [1]. Natomiast detekcja synchroniczna stosowana jest głównie w przypadku modulacji amplitudy z niepełnym widmem, gdzie nośna i/lub jedna ze wstęg bocznych modulacji jest częściowo bądź całkowicie wytłumiona [2]. W pewnych zastosowaniach, m.in. w systemach radiolokalizacyjnych i radionawigacyjnych, oprócz jakości demodulacji sygnałów AM mierzonej stosunkiem sygnału do szumu (S/N) na wyjściu demodulatora, istotnego znaczenia nabiera inny parametr dotyczący odbioru i demodulacji sygnału, a mianowicie dokładność pomiaru czasu nadejścia sygnału zmodulowanego do odbiornika [3]. Ze względu na brak w dostępnych publikacjach opisujących funkcjonowanie systemów i urządzeń pracujących z modulacją AM informacji o parametrach czasowych związanych z procesem demodulacji AM, wykonano badania porównawcze funkcjonowania demodulatora obwiedni i demodulatora synchronicznego pod kątem ich wpływu, na jakość realizacji pomiarów czasu nadejścia sygnałów w odbiornikach radiokomunikacyjnych. Celem badań jest wskazanie metody, charakteryzującej się wyższą jakością estymacji czasów nadejścia sygnału AM zwłaszcza przy niskich poziomach mocy sygnałów docierających do badanych odbiorników. Uwagę skupiono nie na jakości sygnału zdemodulowanego mierzonej stosunkiem S/N tylko na parametrach czasowych zdemodulowanych sygnałów. W referacie przedstawiono wyniki pomiarów porównawczych czasów detekcji sygnałów AM pomiędzy dwoma odbiornikami dla dwóch typów detekcji: obwiedniowej oraz synchronicznej. Detekcja obwiedni więcej »

PRAWNE, TECHNICZNE I EKONOMICZNE ASPEKTY PROCEDUR ŚRODOWISKOWYCH W ODNIESIENIU DO STACJI BAZOWYCH RADIOKOMUNIKACJI RUCHOMEJ SYSTEMU TETRA - DOI:10.15199/59.2018.8-9.57
Waldemar Karcz 
1. WSTĘP Istniejący stan prawny dotyczący obowiązku zgłaszania instalacji emitujących pola elektromagnetyczne wymaga dokładnego oszacowania poziomu gęstości mocy emitowanej przez anteny stacji bazowych TEREA. Znajomość rozkładu gęstości mocy emitowanej przez te stacje jest niezbędna w aspekcie oceny oddziaływania na środowisko w miejscach dostępnych dla ludności. Na podstawie art.122a ustawy Prawo Ochrony Środowiska [7] prowadzący instalację oraz użytkownik urządzenia, w tym przypadku stacji bazowej TETRA, emitującej pole elektromagnetyczne, którego równoważna moc promieniowana wynosi nie mniej niż 15 W, są zobowiązani do zgłoszenia instalacji według zasad określonych w Rozporządzeniu Ministra Środowiska z dnia 2 lipca 2010 r. Do zgłoszenia należy dołączyć wyniki pomiarów PEM lub analizę na podstawie art. 3 ust. 21 Prawa Ochrony Środowiska. Dokonując zgłoszenia instalacji stacji bazowej TETRA do organu ochrony środowiska należy dołączyć dokument kwalifikacja przedsięwzięcia oraz wyniki pomiarów pól elektromagnetycznych. 2. PARAMETRY TECHNICZNE SB TETRA 2.1. Podstawowe parametry systemu TETRA Parametry stacji bazowych istotne do ustalenia zgodności poziomu gęstości mocy z obowiązującymi limitami przedstawia poniższa tabela.[1] Tab.1.Moce EIRP i zakresy systemu TETRA Parametr Wartość Jednostka Pasmo 1 380-470 [MHz] Pasmo 2 870-888 [MHz] Moc st. Bazowej EIRP 40 [W] Moc st. Mobilnej 10 [W] 2.2. Dopuszczalny poziom pól w środowisku Dopuszczalny poziom pól w miejscach dostępnych dla ludności został określony w Rozporządzeniu Ministra Środowiska z dnia 30 października2003r. Dla zakresu częstotliwości 0,3 - 300 GHz dopuszczalny poziom gęstości mocy wynosi 0,1 W/m2. 3. STAN PRAWNY I FAKTYCZNY 3.1. Kwalifikacja przedsięwzięcia Rodzaje instalacji, których eksploatacja wymaga zgłoszenia zostały określone w Rozporządzeniu Ministra Środowiska z dnia 2 lipca 2010 r.[5] Dla instalacji radiokomunikacyjnych ujętych w § 2 ust.2 pkt więcej »

PROJEKT SAMONOŚNEJ STRUKTURY ANTENY LINIOWEJ
Katarzyna Jagodzińska 
1. WSTĘP Technika radiokomunikacji jest w dzisiejszych czasach jedną z najpopularniejszych metod porozumiewania się na odległość, a urządzenia bezprzewodowe są niezbędne do sprawnego funkcjonowania człowieka w społeczeństwie. To właśnie od parametrów urządzenia i systemu bezprzewodowego zależy jakość dokonywanej transmisji danych, dlatego też coraz większy nacisk kładą producenci sprzętu na to by urządzenie bezprzewodowe było wielofunkcyjne i spełniało wymagania stawiane przez potencjalnego użytkownika. Kluczowym elementem takiego urządzenia są anteny, których projektowanie wymaga poszukiwania coraz to nowszych metod zapewniających uzyskanie tanich i efektywnych struktur antenowych. Wyzwaniem tutaj staje się zwłaszcza rozmiar fizyczny anteny, który jest parametrem krytycznym biorąc pod uwagę fakt, iż antena transformując falę napięcia w falę radiową musi mieć rozmiar wynoszący co najmniej pół długości fali elektromagnetycznej aby wykonać ta zamianę efektywnie. Dlatego też coraz częściej projektanci anten odchodzą od tradycyjnych metod projektowania[3] na rzecz metod heurystycznych takich jak algorytmy ewolucyjne np. algorytmy genetyczne[ 1,4]. Wykorzystując algorytm genetyczny, została opracowana autorska metoda syntezy anten liniowych[2], przy użyciu której uzyskano samonośną strukturę antenową, stworzono prototyp tej anteny oraz wykonano pomiary jej parametrów polowych i obwodowych. W niniejszym artykule zamieszczono krótki opis działania metody syntezy oraz przedstawiono wyniki badań symulacyjnych oraz wyniki pomiarów. 2. PROJEKT SAMONOŚNEJ STRUKTURY ANTENOWEJ 2.1. Model anteny Model anteny przyjęty do badań stanowi więcej »

PROJEKTOR MULTIMEDIALNY W PROCESIE INFILTRACJI ELEKTROMAGNETYCZNEJ - DOI:10.15199/59.2018.8-9.30
Rafał Przesmycki Marian Wnuk 
1. WSTĘP Ochrona informacji przed przenikaniem elektromagnetycznym urządzeń i systemów elektronicznych (informatycznych) ma bardzo duże znaczenie. Problem ten narasta z coraz to większym zastosowaniem urządzeń teleinformatycznych do przetwarzania i przekazywania informacji, które nie powinny wpaść w niepowołane ręce. Wynika to stąd, że każde urządzenie elektroniczne jest źródłem niepożądanej (ubocznej) emisji energii elektromagnetycznej indukowanej w otaczającą przestrzeń i we wszelkich bliskich przewodach elektrycznych i konstrukcjach metalowych. Kiedy sygnały emisji niepożądanej są skorelowane z nieutajnioną informacją, mogą być one wykorzystane do odtworzenia tej informacji przez służby wywiadu. Zjawisko takiej emisji niepożądanej nazywa się emisją ujawniającą, a jej wykorzystanie przez wywiad - penetracją lub infiltracją elektromagnetyczną. Przedsięwzięcia mające na celu utrudnianie rozpoznawania systemów na podstawie emisji ujawniającej nazywamy ochroną informacji przed przenikaniem elektromagnetycznych lub bezpieczeństwem emisji. Emisje elektromagnetyczne mające charakter emisji ujawniającej mogą powstać na każdym etapie przetwarzania informacji kodowanej w postaci prze-biegów prądu elektrycznego. Nie ma również możliwości przeprowadzenia badań zarówno samego źródła, jak i kanału przenikania informacji. W warunkach laboratoryjnych można jednak przeprowadzać takie testy, w których badane urządzenia wprowadzane są w tryby pracy umożliwiające poznanie ich podatności infiltracyjnej. W niniejszym artykule przedstawiony został przykład takich eksperymentów. Wydaje się, że najbardziej odpowiednim dla zilustrowania zagadnienia elektromagnetycznego przenikania informacji są urządzenia lub ich komponenty, które przetwarzają informację w sposób szeregowy, a reguła kodowania jest nieskomplikowana i powszechnie znana. 2. PROJEKTOR MULTIMEDIALNY Projektor, rzutnik projekcyjny - urządzenie optyczne służące do wyświetlania na więcej »

PRZEDSTAWIANIE PARAMETRÓW SIECIOWYCH Z WYKORZYSTANIEM SKIEROWANYCH LICZB ROZMYTYCH - DOI:10.15199/59.2018.8-9.37
Tomasz Wojciech Nowak 
1. WSTĘP W celu realizacji potrzeb związanych z zarządzaniem i sterowaniem sieciami telekomunikacyjnymi wykonywane są różnego rodzaju pomiary. Ich nieodłączną cechą jest występowanie niepewności pomiarowej, wynikającą z ograniczeń technicznych i fizycznych w danym eksperymencie pomiarowym. W praktyce bardzo często stosuje się następujące podejścia: - Mierzenie danej wielkości jednorazowo i przyjmowanie jej wartości chwilowej jako obiektywnej wartości wielkości mierzonej w celu dalszego wykorzystania. - Mierzenie danej wielkości kilkukrotnie i wyciąganie wartości średniej. Takie podejście pozwala zmniejszyć wariancję uzyskiwanego wyniku. Przedstawione proste metody pozwalają wyznaczyć jedną, konkretną wartość. Można je również rozszerzyć o informację na temat wielkości błędu pomiarowego (względnego, bezwzględnego). Tak zmierzona wielkość wraz z określonym błędem pomiaru może być dalej przetwarzana w systemie informacyjnym. W niektórych zastosowaniach taki prosty model zbierania danych pomiarowych jest niewystarczający, dlatego też można użyćbardziej zaawansowanego aparatu, opartego na liczbach rozmytych, który pozwala ująć opisaną niejednoznaczność pomiarową. Drugim ważnym aspektem jest zmienność mierzonej wartości w czasie, która może być wykorzystywana w zaawansowanych systemach informatycznych i telekomunikacyjnych. Zmienność parametru w kolejnych pomiarach może mieć charakter losowy, np. za sprawą błędów pomiarowych, efektów szumowych czy błędów zaokrągleń. Zmienność mierzonych wartości w czasie w czasie może również mieć charakter pewnego trendu, którego detekcja może być przydatna w procesie monitorowania stanu parametrów sieciowych i zarządzania siecią. W tym celu mogą zostać wykorzystane skierowane liczby rozmyte, które pozwalają opisać trend w danym ciągu pomiarów. 2. SKIEROWANE LICZBY ROZMYTE 2.1. Liczby i zbiory rozmyte W niniejszej pracy centralnym punktem jest liczba rozmyta. Aby zdefiniować liczbę rozmyt więcej »

Radiowe łącze ruchome do szybkiej transmisji danych multimedialnych dla systemu kontroli obszaru - DOI:10.15199/59.2018.8-9.4
Ryszard J. KATULSKI 
Bezprzewodowa technika radiowa jest coraz intensywniej stosowana dla wsparcia telekomunikacyjnego w obszarze obronności i bezpieczeństwa publicznego, zwłaszcza dla potrzeb zdalnego monitorowania wszelkiego rodzaju zagrożeń. Z tego względu na całym świecie w wielu ośrodkach naukowych podejmowane są prace badawcze zmierzające do uzyskania wyników wychodzących naprzeciw wzrastającemu zapotrzebowaniu na rozwiązania użytkowe w tej dziedzinie. Zadania te wymagają rozwiązania wielu zawansowanych problemów badawczych, związanych z kierunkami rozwojowymi w dziedzinie współczesnej radiokomunikacji, osadzonych w różnych jej obszarach. Problemy te polegają m.in. na przetwarzaniu sygnałów w czasie rzeczywistym, co przekłada się na opracowywanie złożonych algorytmów, będących punktem wyjścia do realizacji wydajnych aplikacji obliczeniowych. Mając to na uwadze, od wielu już lat w Katedrze Systemów i Sieci Radiokomunikacyjnych Politechniki Gdańskiej podejmuje się prace badawczo-rozwojowe inspirowane potrzebami m.in. Marynarki Wojennej RP oraz Morskiego Oddziału Straży Granicznej. Projekty takie były i są współfinansowane na drodze konkursowej przez Narodowe Centrum Badań i Rozwoju, przy współpracy z Akademią Marynarki Wojennej i zewnętrznymi podmiotami gospodarczymi, głównie z Ośrodkiem Badawczo-Rozwojowym Centrum Techniki Morskiej SA w Gdyni i gdańską firmą DGT, specjalizującą się w rozwiązaniach systemowych w dziedzinie telekomunikacji i teleinformatyki. Okolicznością sprzyjającą podejmowaniu takich prac jest uruchomione w Katedrze w 2010 roku Środowiskowe laboratorium systemów łączności bezprzewodowej do zastosowań specjalnych, dofinansowane przez Fundusz Nauki i Technologii Polskiej. Laboratorium to dysponuje szerokim zestawem urządzeń badawczo-pomiarowych najwyższej klasy. Na jego wyposażeniu znajdują się m.in. programowalne urządzenia nadawczo-odbiorcze, analizatory widma sygnałów i protokołów radiokomunikacyjnych oraz testery praktyc więcej »

RESOURCE ALLOCATION IN LTE-UNLICENSED FEMTOCELL NETWORKS
Jerzy Martyna 
As it has been noted, the global traff c is more than doubling each year and the mobile industry needs to prepare for 1000 times as much traff c by 2000 [1]. To meet such big demands, both industry and academia are looking for enormous network capacities that have met such huge f ow increases. Among others, it was proposed carrier aggregation (CA) technology [2], which is standarized in Long Term Evolution (LTE) Release 10-12, aggregates multiple small band segments into maximum 100 MHz virtual bandwidth to achieve a higher data rate. For cellular networks carrier aggregation can be used to combine the huge amount of WiFi spectrum with cellular LTE band, so that it signif cantly increases the bitrate of users [3]. This concept, called LTE-U, allows to improve the throughput of cellular users by providing them higher bandwidth, but it deteriorates the performance of existing WiFi users. This is due, among other things, the fact that CSMA/CA mechanism delays the transmission of WiFi users resulted from the increased competition for channel access from cellular users. In the paper by W. J. Hillery et al. [4] a network performance study of LTE in unlicensed spectrum has been studied. The authors of the paper [5] have shown that the performance of WiFi is more vulnerable to LTE interference while the performance of LTE users is degraded. Listen-Before-Talk (LBT) protocol as an essential mechanism that allows WiFi and LTE systems to share the unlicensed band while maintaining the performance of each individual system has been proposed by Chung K. Kim et al. [6]. Recently, a Q-reinforcement learning method was presented by C. Dhahri et al. [7] for a non-stationary femtocell network. The same method was presented for licensed-assisted access of LTE in the unlicensed spectrum to achieve satisfactionary throughput in both LTE and WiFi was proposed by N. Rupasinghe [8]. In turn, the performance of various network architectures suc więcej »

ROUTING Z ESTYMACJĄ POWIĄZAŃ WĘZŁÓW SIECI MANET - DOI:10.15199/59.2018.8-9.20
Rafał Bryś Piotr Gajewski 
1. WSTĘP Cechą charakterystyczną mobilnych sieci Ad-Hoc (MANET) jest znaczna swoboda w tworzeniu grafu powiązań pomiędzy jej węzłami składowymi. Sieć taka pozbawiona jest administracyjnych punktów centralnych nadzorujących pracę sieci i jej elementów. Mobilność węzłów sieci oraz inne zjawiska związane z transmisją radiową przyczyniają się jednocześnie do częstych zmian powiązań grafu. Wszystkie węzły sieci posiadają tą samą lub bardzo zbliżoną do siebie funkcjonalność, tj. pełnią rolę zarówno terminali abonenckich, jak i punktów pośredniczących w przekazywaniu danych - kierujących ruch (routerów). Dynamika zmian topologii sieci jest niewątpliwą zaletą, ale stwarza szereg problemów ze znalezieniem i utrzymaniem ścieżki (trasy) wymiany informacji pomiędzy dowolną parą węzłów w sieci. Wynika to m.in. z bezwładności reakcji algorytmów routingu na występowanie czynników zakłócających, skutkujących utratą ciągłości ścieżki routingu złożonej z wielu łączy pośredniczących. Brak ciągłości ścieżki równoważny jest z przerwaniem połączenia, którego wykrycie wymaga reakcji odpowiednich mechanizmów sprawdzających (realizujących swoje funkcje w ściśle określonych cyklach) oraz mechanizmów poszukiwania nowej trasy, wymagającej określonego czasu. Przerwy na trasie transmisji danych wynikające z czasu potrzebnego na wykrycie nieciągłości i znalezienie nowej ścieżki powodują z kolei bezpowrotne straty pakietów. Potwierdzeniem tego są uzyskane wyniki badań symulacyjnych przeprowadzonych w realizowanych projektach [1]. Wskazują one, iż stopa strat pakietów jest zależna m.in. od ilości węzłów (wielkości sieci) oraz ich mobilności i wzrasta wraz ze wzrostem tych wskaźników. Najprostszym rozwiązaniem powyższego problemu jest zwiększenie częstotliwości zdarzeń monitorowania stanu sieci przez węzły, generowanych przez protokoły routingu. Pociąga to jednak za sobą zwiększenie obciążenia sieci ruchem nadzorczym, a także użycie większych zasobów w więcej »

Rozmieszczenie obszaru zaników w jednoczęstotliwościowej sieci SFN na przykładzie sieci DAB+ - DOI:10.15199/59.2018.8-9.6
Ryszard J. ZIELIŃSKI 
O głębokości zaniku sygnału, spowodowanego wielodrogowością w modelu dwudrogowym w przypadku sieci jednoczęstotliwościowej, decydują wielkości natężenia pola elektromagnetycznego (e-m) wokół anteny odbiornika od sąsiednich nadajników DAB+. Jeżeli w danym obszarze dominują dwa sygnały pochodzące z dwóch sąsiednich nadajników, to poziomy mocy i fazy tych sygnałów decydują o poziomie zaniku. W tym przypadku znane są również ściśle miejsca geometryczne punktów, w których występują najgłębsze zaniki. W przypadku większej liczby interferujących ze sobą sygnałów o porównywalnych poziomach, pochodzących od większej liczby nadajników, miejsce geometryczne występowania największych zaników nie jest już tak dokładnie zdeterminowane. Zależy ono od liczby i położenia nadajników i musi być wyznaczane indywidualnie. W przypadku dwóch interferujących ze sobą sygnałów, pochodzących od dwóch nadajników, należy się spodziewać, że najgłębsze zaniki wystąpią w obszarze pomiędzy tymi nadajnikami, w którym poziomy sygnałów są porównywalne. Jeżeli nadajniki te mają takie same parametry emisyjne, to obszar występowania maksymalnych zaników będzie położony w przybliżeniu w połowie odległości od tych nadajników. Tego typu przypadek będzie rozważany w dalszej części artykułu. ZANIKI W SIECI SFN DAB+ Z DWOMA NADAJNIKAMI Wypad kowy rozkład nat ężenia pola elektrycznego W artykule [4] przedstawiono sposób wyznaczania miejsc występowania największych zaników. Są one spowodowane superpozycją dwóch sygnałów w fazach przesuniętych o nieparzystą wielokrotność kąta π/2, odpowiadającą różnicy długości dróg propagacji od nadajników do analizowanego punktu, równą nieparzystej wielokrotności połowy długości fali: . (1) Zostanie przedstawiony rozkład poziomu natężenia pola elektrycznego na określonych trasach, który uwzględnia interferencję fal, nie ograniczając się jedynie do miejsc występ więcej »

STAN ŚRODOWISKA ELEKTROMAGNETYCZNEGO W POBLIŻU SZLAKU KOLEJOWEGO W ŚWIETLE OBOWIĄZUJĄCYCH STANDARDÓW
Kachel Leszek 
1. WSTĘP Wszystkie urządzenia elektryczne i elektroniczne z wyjątkiem urządzeń grzejnych, które zamieniają wprost energie elektryczną na ciepło generują niepożądana energię elektromagnetyczną wielkiej częstotliwości wprowadzaną do środowiska. Skutki oddziaływania pola elektromagnetycznego dotyczą przede wszystkim urządzeń elektronicznych instalowanych w tym środowisku lub jego pobliżu. Dotyczy to zarówno sprzętu profesjonalnego kolejowego i telekomunikacyjnego, jak również urządzeń zainstalowanych w osiedlach mieszkalnych budowanych coraz częściej w pobliżu szlaku kolejowego. Ocena stanu środowiska w pobliżu szlaku kolejowego dotyczy pasma od 9kHz do 1GHz z podziałem na podzakresy dotyczące pomiaru natężenia pola elektromagnetycznego zaburzeń radioelektrycznych w odległości 10m od toru kolejowego i oceny wartości zmierzonego pola z wartościami granicznymi zawartymi w standardach europejskich. Problematyka ta również dotyczy coraz większego nasycania elektroniką obiektów kolejowych w elektroniczne urządzenia cyfrowe. Pomimo znacznej modernizacji taboru kolejowego na przestrzeni ostatnich lat ocena poziomu generowanych zaburzeń radioelektrycznych przez tabor i inne urządzenia kolejowe stanowi dość istotny element brany pod uwagę przy dopuszczaniu poszczególnych obiektów do eksploatacji. Konieczne jest, zatem rozpoznanie źródeł pól elektromagnetycznych przeanalizowanie zgodności ich generowanych poziomów z wymaganiami i obowiązującymi standardami w tym zakresie. Należy podkreślić, że przepisy normalizacyjne dotyczące niepożądanej emisji elektromagnetycznej powstały przede wszystkim w celu zabezpieczenia niezakłóconego odbioru początkowo radiowego a następnie telewizyjnego. W późniejszym okresie objęto normalizacją elektroniczny sprzęt profesjonalny i powszechnego użytku. 2. GŁÓWNE ŹRÓDŁA ZABURZEŃ RADIOELEKTRYCZNYCH YSTĘPUJĄCE NA SZLAKU KOLEJOWYM Do głównych źródeł zaburzeń radioelektrycznych można zaliczyć obiekty stacj więcej »

STANOWISKO LABORATORYJNE DO GENERACJI SYGNAŁÓW MODULACJI CYFROWYCH - DOI:10.15199/59.2018.8-9.16
Sławomir Pluta Piotr Kosydor 
1. WSTĘP Generator sygnałów modulacji cyfrowych to przyrząd, który na podstawie dwóch strumieni sygnałów cyfrowych generuje sygnał wektorowy (ze zmienną fazą i amplitudą). Przyrząd taki wykorzystuje modulator IQ, do którego doprowadzane są strumienie I(t) i Q(t) modulujące fazę i amplitudę, sygnał referencyjny pasma podstawowego i sygnał nośny. Generator sygnałów modulacji cyfrowych to podstawowy przyrząd do badań nowoczesnych systemów radiokomunikacji, tworzenia nowych opracowań modulacji i kodowania danych. Pozwala tworzyć sygnały, które są wykorzystywane w nowoczesnych standardach komunikacyjnych [1], [4], [6]. Generatory modulacji cyfrowych renomowanych producentów, pozwalające na generację sygnałów o częstotliwości 3 GHz i powyżej, kosztują zwykle ponad 100 tys. złotych. Cena sprzętu jest silnie powiązana z zakresem częstotliwości w.cz., z możliwościami tworzenia pełnej palety sygnałów modulacji cyfrowych, z możliwościami realizacji sygnałów dla typowych standardów radiokomunikacyjnych oraz z parametrami określającymi jakość generowanego sygnału. Rozwiązania typowych generatorów arbitralnych nie posiadają często opcji generacji sygnałów modulacji cyfrowych lub nie są w stanie generować sygnałów o częstotliwości powyżej 1 GHz. W czasie zajęć dydaktycznych na kierunku Elektonika i Telekomunikacja (lub pokrewnym) z przedmiotów odnoszących się do treści związanych z generacją przebiegów modulacji cyfrowych, stosowane są przeważnie zintegrowane generatory modulacji cyfrowych oraz prowadzone symulacje sygnałów modulacji cyfrowych dostępne dzięki oprogramowaniu MatLab lub LabView. Celem przedstawionych w artykule prac było pokazanie sposobu realizacji stanowiska do praktycznej realizacji dowolnych modulac więcej »

Symulacja i prototyp anteny Kosheleva - DOI:10.15199/59.2018.8-9.8
Dominik DZIERŻANOWSKI Katarzyna KARDACZ Anna WITENBERG 
Od kilkunastu lat powstają anteny o konstrukcji specjalnie przeznaczonej do promieniowania krótkich impulsów pola o ekstremalnie wielkich natężeniach. W tej publikacji nie będą opisywane przeznaczenia takich anten; zainteresowany czytelnik łatwo znajdzie wyjaśnienie w literaturze. Mówiąc o krótkich impulsach pola elektromagnetycznego, ma się na myśli impulsy trwające nawet kilka pikosekund, choć zwykle są takie impulsy o kilka rzędów dłuższe. Z podstawowych zasad rządzących teorią sygnałów wiadomo, że wraz ze skracaniem czasu trwania impulsu rośnie szerokość widma w dziedzinie częstotliwości. Wynika stąd, że anteny projektowane do promieniowania krótkich impulsów muszą być jedno cześnie antenami szerokopasmowymi. Anteny szerokopasmowe zaś są szczególnie pożądane w wielu systemach transmisyjnych, na przykład w systemach ultraszerokopasmowych (UWB). Przy tym należy zauważyć, że wiele anten przeznaczonych do pracy z pojedynczymi impulsami ma niezbadane właściwości szerokopasmowe. W artykule są opisane właściwości szerokopasmowe jednej z anten - anteny Kosheleva - która od kilku lat jest z powodzeniem stosowana w układach promieniujących pojedyncze impulsy oraz repetycje takich impulsów. O ile parametry impulsowe anteny Kosheleva [1] są dość dokładnie opisane w literaturze, to parametry szerokopasmowe tej anteny są nieznane. W celu zbadania zachowania się anteny Kosheleva przy pobudzeniu szerokopasmowym, zaprojektowano taką antenę, przeprowadzono symulację jej zachowania w środowisku numerycznym, a następnie zbudowano jej prototyp i wykonano odpowiednie pomiary. zaproponowaniu narzędzia symulacyjnego, umożliwiającego modelowanie kanału radiowego w sieciach WBAN typu body-to- -body z zadowalającą dokładnością. Przedstawione w artykule badania prowadzone są w ramach COST Action CA15104 Inclusive Radio Communication Networks for 5G and beyond (IRACON), a także w ramach porozumienia o współpracy pomiędzy Wydziałem Elektroniki, Tel więcej »

SYMULATOR WĘZŁÓW ELASTYCZNYCH SIECI OPTYCZNYCH OPARTYCH NA STRUTURZE 3-SEKCYJNEGO POLA CLOSA - DOI:10.15199/59.2018.8-9.59
Mariusz Głąbowski Maciej Sobieraj 
1. WSTĘP Zwiększająca się różnorodność usług sieciowych, o wzrastającym zapotrzebowaniu na przepływności, oraz liczba urządzeń dołączonych do globalnej sieci transmisji danych, stawia nowe wymagania przed sieciami telekomunikacyjnymi. W celu sprostania tym wymaganiom niezbędne jest nie tylko zwiększanie przepływności łączy telekomunikacyjnych, ale także - w coraz większym stopniu - zapewnienie możliwości różnicowania jakości obsługi różnych klas strumieni ruchu w węzłach telekomunikacyjnych. W ciągu ostatnich lat rozwój sieci optycznych, zarówno dostępowych, jak i szkieletowych, spowodował, że stały się one podstawowymi rozwiązaniami oferującymi równocześnie wysokie przepływności oraz mechanizmy przydziału zasobów i różnicowania jakości obsługi. Aktualnie, wraz z rozwojem techniki DWDM (ang. Dense Wawelength Division Multiplexing), optyczne sieci telekomunikacyjne następnej generacji są przedmiotem zainteresowania wielu ośrodków naukowych oraz tematem wielu publikacji [1][2]. Technologie sieci optycznych pozwalają zwiększyć prędkość transmisji do 100 Gb/s, 400 Gb/s, lub nawet 1 Tb/s. Możliwość efektywnego wykorzystania tak dużych przepływności sieci na potrzeby użytkowników o różnych żądaniach, znacznie mniejszych od pojemności sieci, zapewnia realizacja koncepcji elastycznych sieci optycznych (ang. Elastic Optical Networks) [3], tj. sieci, które umożliwiają elastyczny przydział zasobów sieciowych dla różnych ścieżek optycznych. W sieciach DWDM koniecznym staje się zastosowanie optycznych pól komutacyjnych, zdolnych do konwersji oraz transmisji sygnałów optycznych na różnych długościach fali świetlnych. Prace badawcze w obszarze optycznych pól komutacyjnych dotyczą głównie opracowania nowych nieblokowalnych struktur optycznych pól komutacyjnych [4]. Budowa takich pól wiąże się z bardzo dużą liczbą punktów komutacyjnych lub ze złożonymi algorytmami sterowania zestawianiem połączeń. Drugim obszarem badań, będącym temate więcej »

SYSTEM Z PRZELEWEM RUCHU ORAZ KOLEJKAMI W ZASOBACH PIERWOTNYCH ORAZ WTÓRNYCH - DOI:10.15199/59.2018.8-9.23
Adam Kaliszan Damian Kmiecik 
1. WSTĘP Systemy z przelewami są jedną z podstawowych technik optymalizacji wykorzystywania zasobów sieciowych. Pozwalają na zmniejszanie prawdopodobieństw blokad występujących w systemie, spełniając jednocześnie żądane parametry jakościowe niezależnie od technologii sieci. Aspekt ten pozwolił na rozpowszechnienie się tej technologii w wielu zastosowaniach m.in. w sieciach Public Switched Telephone Networks [2, 6, 33, 36, 37, 39, 44], w sieciach komórkowych 2G, 3G, 4G [5, 11, 23, 28, 29, 38, 41, 42] oraz w sieciach pakietowych [7, 10, 12]. Podstawowym założeniem tego mechanizmu jest podział zasobów na dwa typy. Pierwszym z nich są zasoby pierwotne, zwane także bezpośrednimi, ponieważ to na nie trafiają zgłoszenia pojawiające się na wejściu systemu. Zwykle są to zasoby o wysokim wykorzystaniu, którym ruch oferowany jest z natężeniem powodującym przekraczanie założonego współczynnika strat dla systemu. Zgłoszenia, które nie mogą zostać obsłużone w zasobach pierwotnych, ze względu na poziom ich zajętości lub politykę przyjmowania zgłoszeń, przekierowywane są na drugi typ zasobów. Są nimi zasoby o małych stratach, nazywane wtórnymi lub alternatywnymi. Jeżeli stan w jakim się znajdują również nie pozwala na obsługę zgłoszenia, to dopiero wtedy takie zgłoszenie jest tracone [41, 44]. Początkowo modele systemów z ruchem przelewowym projektowane były dla jednousługowych, jednokanałowych hierarchicznych sieci telekomunikacyjnych[ 2, 6, 21, 24, 26, 33, 35, 36, 37, 39, 43, 44, 45]. Badania nad systemami z przelewami ruchu wielousługowego rozpoczęły się wraz z wprowadzeniem sieci z integracją usług, takich jak ISDN (ang. Integrated Services Digital Network) lub bezprzewodowy UMTS (ang. Universal Mobile Telecommunications System0. Wraz z rozwojem tych sieci rosło także zapotrzebowanie na dokładne metody analizy wielousługowych systemów sieciowych z przelewem ruchu [4, 5, 22, 27, 28, 29, 38, 41, 42]. Decyzja dotycząca przyjmowania więcej »

SYSTEM ZARZĄDZANIA HETEROGENICZNYMI SIECIAMI RADIOWYMI - DOI:10.15199/59.2018.8-9.42
Grzegorz Szmit Jerzy Łopatka 
1. WSTĘP Masowy wzrost zapotrzebowania na wymianę informacji pomiędzy użytkownikami mobilnymi stymuluje równie dynamiczny rozwój systemów radiokomunikacyjnych. Prowadzone prace badawcze nad systemami radiowymi doprowadziły do powstania technologii radia definiowanego programowo, co w znaczny sposób uprościło implementację rozwiązań radiowych. Ułatwiło to również zachowanie interoperacyjności z systemami radiowymi starszej generacji. Szybki rozwój bezprzewodowych systemów łączności stwarza szereg istotnych problemów związanych z ich zastosowaniem. Pierwszy problem to niedobór zasobów radiowych, który próbuje się rozwiązywać poprzez zastosowanie radiostacji inteligentnych (ang. cognitive radio) stanowiących następny etap rozwoju radiostacji definiowanych programowo. Radiostacje kognitywne to radiostacje upoważnione do zmiany swoich parametrów transmisyjnych na podstawie interakcji ze środowiskiem, w którym pracują. Z tego faktu wynika kolejny problemem związany z szybkiego rozwój urządzeń radiowych, a mianowicie uruchomienie efektywnego systemu zarządzania sieciami radiowymi. Nowoczesne radiostacje są wielokanałowymi węzłami radiowymi, które potrafią zmieniać swoje parametry pracy. Najpowszechniej realizowane jest to przez oprogramowanie działające w ramach radiostacji definiowanej programowo. Interakcja ze środowiskiem może zawierać aktywną negocjację oraz komunikację z innymi użytkownikami pasma lub/i pasywną detekcję i podejmowanie decyzji przez radio. Zakres przeprowadzanych zmian konfiguracji przez współczesne radiostacje nie dotyczy tylko ustawień określających parametry nadawania i odbioru, ale może obejmować czynniki wpływające np. na strukturę sieci lub wynikać z aktywności użytkowników. Dostosowanie parametrów pracy oparte jest na ustawicznym monitoringu zasadniczych czynników opisujących stan elementów mających wpływ na pracę sieci radiowej. Pozwala to skutecznie unikać celowych zakłóceń i/lub interferencji z więcej »

Szerokopasmowe systemy komunikacyjne na morzu - scenariusze użycia i przykładowe instalacje - DOI:10.15199/59.2018.8-9.1
Józef WOŹNIAK Krzysztof GIERŁOWSKI Michał HOEFT Michał LEWCZUK 
Stan bieżący, potrzeby i oczekiwania w odniesieniu do e-nawigacji i systemów łączności szerokopasmowej Systemy radiokomunikacji na morzu pełnią ważne funkcje związane z szeroko rozumianym bezpieczeństwem żeglugi i efektywną nawigacją, przekazując informacje o lokalizacji i kursach jednostek, ostrzegając przed zagrożeniami oraz dostarczając środków komunikacji dla służb ratownictwa morskiego. Wśródrealizowanych obecnie usług można wymienić wspomnianą identyfikację i lokalizację statków zapewnioną przez system automatycznej identyfikacji AIS (Automatic Identification System), jak również globalny morski system bezpieczeństwa i alarmowania GMDSS (Global Maritime Distress and Safety System) [1, 2] z jego licznymi komponentami. Analiza wymaganych przez IMO (International Maritime Organization) systemów i usług świadczy, że obecne podejście do systemów łączności na morzu koncentruje się (prawie wyłącznie) na dostarczaniu zestawu usług krytycznych związanych z bezpieczeństwem. Są one zaprojektowane i znormalizowane tak, by były niezawodnie realizowane przy użyciu kanałów danych o niskiej czy wręcz bardzo niskiej przepustowości [3]. Usługi dodatkowe, takie jak pobieranie cyfrowych map nawigacyjnych, częsta aktualizacja map pogodowych [4,5], automatyczna optymalizacja trasy lub różne zdalne usługi monitorowania i utrzymania, nie wspominając już o dostępie do Internetu w celu poprawy komfortu pracy załogi i podróży pasażerów, wymagają znacznie bardziej wydajnych systemów komunikacyjnych. Analizy dotyczące sys- TELE-RADIO-ELEKTRONIKA-INFORMATYKA ROK ZAŁOŻENIA 1928  ROCZNIK XCI  ISSN 1230-3496 8-9/2018 * Katedra Teleinformatyki, Wydział Elektroniki, Telekomunikacji i Informatyki Politechniki Gdańskiej, e-mail: jowoz@eti.pg.edu.pl; krzysztof.gierlowski@pg.edu.pl; michal.hoeft@pg.edu.pl; michal@lewczuk.pl Józef WOŹNIAK*, Krzysztof GIERŁOWSKI*, Michał HOEFT*, Michał LEWCZUK* Szerokopasmowe systemy komunikacyjne na morz więcej »

Świadomość sytuacyjna cyberzagrożeń - DOI:10.15199/59.2018.8-9.3
Adam KOZAKIEWICZ 
W miarę jak społeczeństwo staje się coraz bardziej uzależnione od połączonych systemów informatycznych, staje się też coraz podatniejsze na ataki internetowe. Indywidualna ochrona poszczególnych systemów, oparta na analizie odbieranych i wysyłanych komunikatów, nie jest już wystarczająca. Potrzebne są nowe, holistyczne podejścia, biorące pod uwagę informacje zebrane z wielu różnych źródeł, łącznie zapewniających lepsze zrozumienie intencji atakujących, ich metod i możliwości, a także ewolucji czynników ryzyka. Wobec coraz bardziej zaawansowanych i zorganizowanych zagrożeń oraz rosnącego poziomu złożoności użytkowanych sieci i systemów, podstawą obrony staje się posiadanie odpowiedniej świadomości sytuacyjnej. Ilość, jakość i aktualność informacji wykorzystywanych do przeciwdziałania zagrożeniom decyduje o możliwości skutecznej reakcji, zapobiegania i zwalczania internetowych zagrożeń. Tymczasem, jak potwierdzają raporty ENISA (European Network and Information Security Agency) [5] [6], to właśnie w zakresie tych zdolności wśród europejskich podmiotów występują szczególnie niebezpieczne braki. Nasze sieci są często bronione przy użyciu skutecznych narzędzi, jednak bez świadomości, przed czym jest to obrona, a więc bez możliwości w pełni skutecznego wykorzystania zabezpieczeń. W artykule przedstawiono europejski projekt badawczy SISSDEN. Jego celem jest zwiększenie ilości i jakości informacji dostępnych dla zagrożonych sieci i zwiększenie świadomości sytuacyjnej na wszystkich szczeblach decyzyjnych. ZAGROŻENIA A Ś WIADOMOŚĆ SYTUACYJNA Zagrożenia iich koszt Każdy podłączony do Internetu komputer jest obecnie potencjalną ofiarą cyberprzestępczości. Ponieważ wiele skutecznych nawet ataków pozostaje niezauważonych, dokładna liczba ofiar PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XCI  WIADOMOŚCI TELEKOMUNIKACYJNE  ROCZNIK LXXxVII  nr 8-9/2018 563 jest nieznana, choć niektóre źródła (np. [4] w przypadku siec więcej »

Warstwa fizyczna sieci dostępu radiowego 5G według wydania 15 standardów 3GPP - DOI:10.15199/59.2018.8-9.2
Krzysztof WESOŁOWSKI 
W najbliższych latach wiele krajów rozwiniętych, w tym Polskę, czeka kolejna rewolucja technologiczna. Będzie nią wprowadzenie systemów i sieci bezprzewodowych piątej generacji (5G). O wadze tego procesu świadczy inicjatywa Ministerstwa Cyfryzacji pod nazwą Strategia 5G dla Polski, w której są zaangażowani najważniejsi operatorzy telekomunikacyjni, firmy sektora ICT oraz przedstawiciele środowiska akademickiego, prowadzącego badania w zakresie systemów i sieci radiokomunikacji ruchomej. W ramach tej inicjatywy opracowano dokument wydany pod auspicjami Ministerstwa Cyfryzacji pt. Strategia 5G dla Polski [1]. Przedstawia on stan wiedzy w momencie jego powstania, istotny dla wdrożenia sieci 5G w Polsce, w terminach zgodnych z planami Unii Europejskiej. Chociaż dokument ten jest niezwykle cenny, powstał przed ukazaniem się wydania 15 standardów 3GPP (3rd Generation Partnership Project) przez stowarzyszenie siedmiu instytucji standaryzacyjnych z USA, Chin, Korei, Indii, Japonii oraz Europy (ETSI) [2]. Warto więc przedstawić przyszłe działanie jednego z ciekawszych segmentów sieci 5G, tj. sieci dostępu radiowego RAN (Radio Access Network), a w szczególności jej warstwy fizycznej. Ta właśnie część sieci 5G jest przedmiotem niniejszego artykułu. Podstawowe scenariusze działania sieci 5G Sieć 5G ma służyć komunikacji w bardzo zróżnicowanych sytuacjach, wymagających często spełnienia przeciwstawnych wymagań względem szybkości transmisji, wprowadzanego opóźnienia, niezawodności itp. Rozróżnia się trzy podstawowe grupy zastosowania sieci 5G. Są to: - eMBB (enhanced Mobile Broadband) - transmisja o bardzo wysokiej przepływności, dużej efektywności widmowej w systemach o szerokim pokryciu terenu i dużej gęstości terminali, służąca do przekazywania m.in. treści multimedialnych o wysokich wymaganiach jakościowych; - mMTC (massive Machine-Type Communications) - masowa transmisja od/do wielu tanich urządzeń o zasilaniu bateryjnym o wielole więcej »

WEKTORY ATAKU CYBERNETYCZNEGO NA INFRASTRUKTURĘ KRYTYCZNĄ - DOI:10.15199/59.2018.8-9.53
Piotr Kucharski 
1. WSTĘP W XXI wieku cyberbezpieczeństwo to jedna z najprężniej rozwijających się gałęzi branży teleinformatycznej. Eksponencjalny wzrost ilości urządzeń podłączonych do sieci Internet spowodował zapotrzebowanie na wprowadzenie odpowiednich mechanizmów kontroli i zabezpieczania ruchu sieciowego. Powstaje pewnego rodzaju wyścig zbrojeń pomiędzy ludźmi odpowiedzialnymi za wdrażanie mechanizmów bezpieczeństwa do systemów teleinformatycznych, a crackerami, którzy próbują włamać się do słabo strzeżonych sieci w celu dokonania jak największych zniszczeń, uzyskania dostępu do poufnych danych, wykradnięcia finansów, czy po prostu z czystej ciekawości. W ciągu ostatnich lat świadomość administratorów i użytkowników systemów wzrosła znacząco. Osoby odpowiedzialne za bezpieczeństwo w takich gałęziach rynku jak banki, instytucje rządowe czy firmy ubezpieczeniowe zdają sobie sprawę, jak ważna jest odpowiednia konfiguracja systemów: ustawienie reguł zapory ogniowej, wyłączanie nieużywanych usług, aktualizację oprogramowania w miarę możliwości. Wciąż jednak istnieją segmenty rynku, gdzie świadomość potrzeby posiadania silnych zabezpieczeń jest przez niektórych niedostrzegana lub bagatelizowana. Takim segmentem są systemy infrastruktury krytycznej w sektorze przemysłowym, których potencjalne zagrożenia bezpieczeństwa postaram się przybliżyć w artykule. Rys. 1. Wykres ilustrujący ilość incydentów bezpieczeństwa w systemach przemysłowych na przełomie XX w. 2. INFRASTRUKTURA KRYTYCZNA A SYSTEMY ICS Podczas wprowadzenia do tematu należałoby sprecyzować co dokładnie oznacza pojęcie infrastruktury krytycznej. Na stronie Rządowego Centrum Cyberbezpieczeństwa można znaleźć poniższą definicję. "Infrastruktura krytyczna (IK) to rzeczywiste i cybernetyczne systemy, obiekty, urządzenia, bądź instalacje niezbędne do minimalnego funkcjonowania gospodarki i państwa." Do infrastruktury krytycznej zaliczamy systemy takie jak elektrownie, oczyszczal więcej »

WPŁYW PRZYSPIESZONEGO ROZŁADOWYWANIA KOLEJEK VOMQ NA STABILNOŚĆ ZMODYFIKOWANEGO POLA CLOSA TYPU MSM - DOI:10.15199/59.2018.8-9.19
Janusz Kleban Jarosław Warczyński 
1. WSTĘP Nieustanny wzrost uzależnienia funkcjonowania ludzi od różnego rodzaju usług sieciowych, zarówno w sferze biznesowej, społecznościowej, jak i rozrywkowej, powoduje konieczność ciągłego udoskonalania infrastruktury sieciowej. Problem ten odnosi się do wszystkich aspektów funkcjonowania Internetu, łącznie z centrami danych, od których zależy szybkość reakcji na żądania użytkowników. Coraz wyższe wymagania jakościowe i pojemnościowe dotyczą przede wszystkim systemów transmisyjnych, a także pakietowych węzłów komutacyjnych. Zwiększanie szybkości transmisji jest obecnie możliwe dzięki systemom optycznym i technice WDM (Wavelength Division Multiplexing). W celu zwiększenia pojemności węzłów komutacyjnych stosuje się obecnie łączenie routerów w klastry. Dla przykładu najnowsze routery klasy operatorskiej firmy CISCO - CRS-X (Carrier Routing System) mogą być łączone w klastry, zawierające maksymalnie 72 chassis, oferując przepustowość 922 Tb/s [15]. Rozwiązanie takie nie jest idealne, ponieważ część zasobów każdego routera jest zaangażowana w realizowanie wymiany danych między routerami w ramach klastra. Poszukuje się zatem nowych rozwiązań, które mogą zwiększyć przepustowość routerów do poziomu Pb/s. Jednym z ważnych modułów każdego routera/ przełącznika są pola komutacyjne, które pozwalają na jednoczesne zestawienie dróg połączeniowych i przesyłanie pakietów między portami wejściowymi i żądanymi portami wyjściowymi. W urządzeniach klasy operatorskiej stosuje się pola wielosekcyjne, a nawet wielopłaszczyznowe, gdzie każda płaszczyzna jest polem wielosekcyjnym. Niesłabnącym zainteresowaniem cieszą się pola komutacyjne budowane zgodnie z zasadami sformułowanymi przez C. Closa [2], dzięki ich modułowej konstrukcji i możliwości łatwej rozbudowy. W zależności od lokalizacji buforów pakietowe pola komutacyjne możemy sklasyfikować następująco [1]: MMM (Memory-Memory-Memory), MSM (Memory- Space-Memory), SMM (Space-Memory-Mem więcej »

WPŁYW ŹRÓDŁA ZAKŁÓCAJĄCEGO Z ANTENĄ KIERUNKOWĄ NA ŁĄCZE RADIOWE W WARUNKACH BRAKU BEZPOŚREDNIEJ WIDOCZNOŚCI - DOI:10.15199/59.2018.8-9.33
Jan M. Kelner Cezary Ziółkowski Leszek Nowosielski 
1. WSTĘP Artykuł koncentruje się na ocenie wpływu źródeł sygnału zakłócającego wyposażonych w anteny kierunkowe na łącza radiowe w obszarach miejskich. W tym środowisku występuje duża gęstość urządzeń emitujących fale elektromagnetyczne. Nadajniki działające w tych samych zakresach częstotliwości mają znaczący wpływ na łącza radiowe. Skuteczność emitowanej mocy zależy w dużej mierze od charakterystyk promieniowania anten i ich orientacji względem odbiorników. W związku z tym, stosowane są różne metody zapewniające kompatybilność działania różnych systemów. W metodach tych uwzględniono dywersyfikację częstotliwości i przestrzenne rozdzielenie poszczególnych urządzeń. Ze względu na ograniczone zasoby częstotliwości, wykorzystanie pierwszej metody jest jednak ograniczone, ale jest podstawowym kryterium przy planowaniu współistniejących sieci radiowych. Druga metoda wymaga użycia anten kierunkowych i technik kształtowania wiązki, w tym techniki MIMO (multiple-input-multiple-output) [8] oraz massive-MIMO [5,9]. Techniki te zostaną wykorzystane w nadchodzących systemach łączności [7,10] oraz w przyszłych mobilnych sieciach ad-hoc [6]. Obecnie takie podejście jest coraz częściej stosowane. Dlatego analiza zakłóceń łącza radiowego spowodowanych przez inne źródło sygnału wyposażone w antenę kierunkową jest aktualnym i ważnym problemem. W literaturze można spotkać opis metod analizy i oceny współistnienia różnych systemów, np. [4]. Jednakże, metody te zazwyczaj odnoszą się one do warunków bezpośredniej widoczności, czyli tzw. warunków LOS (line-of-sight). W przypadku warunków NLOS (non-LOS), czyli braku bezpośredniej widoczności pomiędzy anteną nadawczą i odbiorczą, występuje propagacja wielodrogowa charakterystyczna dla obszarów miejskich. W tym przypadku, istotne jest uwzględnienie dyspersji w dziedzinie czasu i kąta odbioru sygnału. Zjawiska te są często pomijane w takich analizach. Analiza wpływu interferencji spowodowanych więcej »

WYBRANE ASPEKTY OPTYMALIZACJI WIELOKRYTERIALNEJ W PLANOWANIU SIECI WLAN
Adam Pieprzycki 
1. WSTĘP Analizując wymagania i metody planowania sieci WLAN IEEE 802.11 można zauważyć, że samo zapewnienie odpowiedniego zasięgu ich działania może być niewystarczające. Dodatkowo, ze względu na wieloaspektowość procesu planowania rozmieszczenia punktów dostępu AP, samo sformułowanie problemu optymalizacyjnego może być równie skomplikowane, jak jego rozwiązanie. Na wstępnym etapie automatycznego projektowania sieci WLAN, w celu określenia jakości poszukiwanego rozwiązania, należy zdefiniować odpowiedni wskaźnik oceny nazywany funkcją kryterialną. Podczas próby sformułowania - w miarę dobrze odzwierciedlającego rzeczywistość - zadania optymalizacji może okazać się koniecznym uwzględnienie w takim zadaniu nie jednej, a kilku - niekiedy wzajemnie przeciwstawnych - funkcji kryterialnych. Zazwyczaj otaczającą nas rzeczywistość, w tym w szczególności, na przykład, sieć WLAN standardu IEEE 802.11 z infrastrukturą, nie jesteśmy w stanie dobrze scharakteryzować tylko i wyłącznie za pomocą jednej, wybranej właściwości, a do pełnej oceny musimy wykorzystać większy zbór-zestaw najważniejszych jej cech. Cechy te wraz ze wskaźnikami jakości, czyli funkcjami od nich zależnymi, składają się na określony zbiór funkcji celu. Opierając zadanie optymalizacji, nie na jednej, a na kilku funkcjach celu, problem poszukiwania optymalnego rozwiązania zostaje przeniesiony z przestrzeni parametrów, czyli liczb, do przestrzeni kryteriów, czyli funkcji. Funkcje kryterialne uwzględniają, między innymi, takie parametry sieci WLAN jak: zasięg radiowy, odległości między punktem dostępu AP a stacjami ST, tłumienie fali radiowej na trasie punkt AP-stacja ST, stosunek mocy nośnej do mocy zakłóceń interferencyjnych 𝑆𝐼𝑅 (Signal to Interference Ratio) na wejściu odbiornika, stosunek mocy nośnej do sumy mocy zakłóceń interferencyjnych i szumów własnych 𝑆𝐼𝑁𝑅 (Signal to Interference and Noise Ratio), bito więcej »

WYBRANE WŁAŚCIWOŚCI ESTYMATY ODPOWIEDZI IMPULSOWEJ KANAŁU RADIOWEGO W PAŚMIE ISM 2,4 GHZ - DOI:10.15199/59.2018.8-9.41
Ryszard Studański 
1. WSTĘP Znajomość odpowiedzi impulsowej kanału propagacyjnego (ang. Channel Impulse Response CIR) odgrywa bardzo ważną rolę przy opracowywaniu nowych systemów radiokomunikacyjnych oraz przy ich udoskonalaniu. Właściwości transmisyjne kanału są zależne od zjawisk w nim występujących, między innymi od występowania propagacji wielodrogowej [3, 4, 5, 6], która spowodowana jest przede wszystkim odbiciem, ugięciem i rozproszeniem fal radiowych. Propagacja wielodrogowa zależy ponadto od ukształtowania terenu, zmienności tego ukształtowania, zabudowy terenu. Czynniki te powodują, że charakterystyki kanału nie są stacjonarne. W rezultacie tych zjawisk każdy sygnał z nadajnika dociera do odbiornika w postaci wielu składowych o różnych i zmiennych w czasie tłumieniach oraz opóźnieniach. Wobec tego odpowiedź impulsową uwzględniającą tor komunikacyjny opisuje zależność [1] h( t) a (t)e ( ) [ (t)] n j t N n n t = - q n d t -t = Σ1 ; (1) w funkcji opóźnienia t i czasu t, gdzie: an(t) jest amplitudą a q n(t) wartością kątową przebiegu sinusoidalnego dla ścieżki n z wszystkich N dróg propagacji, d(.) stanowi deltę Diraca. W artykule przedstawiono wyniki badań eksperymentalnych prowadzonych w środowisku rzeczywistym i zwrócono uwagę na nieuniwersalny charakter wyznaczanych odpowiedzi impulsowych kanału. Natomiast podstawowe parametry kanału takie jak rozproszenie opóźnienia propagacyjnego, pasmo koherencji, rozproszenie dopplerowskie i czas koherencji zostały wyznaczone dla tego środowiska w [8] zgodnie z procedurami opisanymi w [2]. 2. OPIS METODY POMIAROWEJ Podstawą prowadzonych badań było wyznaczanie estymaty odpowiedzi impulsowej kanału poprzez wyznaczanie korelacji wzajemnej miedzy sygnałem odebranym a nadanym. Odbierany sygnał można określić jako [9]: ( ) ( ) ( ) ( ) ( ) ( ) ( ) F t g t y t x t g t F t h t R R T T CIR Ä Ä = Ä Ä Ä (2) gdzie: x(t) - emitowany sygnał; gT(t), gR(t) - zysk energetyczny anteny na więcej »

WYKORZYSTANIE ELEKTRONICZNEGO DOWODU TOŻSAMOŚCI DO BEZPIECZNEGO I WYGODNEGO UWIERZYTELNIANIA W USŁUGACH ELEKTRONICZNYCH - DOI:10.15199/59.2018.8-9.27
Piotr Lewandowski 
Wraz ze stale rosnącą liczbą usług dostępnych przez internet lub lokalnie na urządzeniach użytkowników, rośnie liczba haseł i loginów, które trzeba zapamiętać. Dodatkowo biorąc pod uwagę zalecenia dotyczące poziomu skomplikowania haseł, ich okresowego zmieniania oraz niepowtarzania ich między usługami można szybko dojść do punktu gdzie wygoda użytkownika wygra z wymogami bezpieczeństwa. Problem ten już dostrzeżono i stale pojawiają się nowe rozwiązania mające mu zaradzić. Między innymi są to: programy do bezpiecznego przechowywania haseł, mechanizm pojedynczego uwierzytelniania (Single Sign- On), różnego rodzaju karty elektroniczne, klucze USB oraz aplikacje na smartfony. W niniejszym artykule zaproponowano jeszcze inne rozwiązanie tego problemu - centralny system potwierdzania tożsamości oparty o infrastrukturę elektronicznego dowodu tożsamości oraz dodatkowy kanał komunikacji jakim są telefony komórkowe. 2. PROJEKT PL.ID Na świecie istnieje wiele podejść do scentralizowanego potwierdzania tożsamości. W niektórych krajach dowód osobisty nie jest wymagany (np. Finlandia czy Wielka Brytania) w innych jest obowiązkowy już od 12 r. ż. (np. Belgia). Znacznie różni się również zakres danych zawartych w dowodzie oraz jego dodatkowa funkcjonalność (elektroniczne potwierdzanie tożsamości, podpis kwalifikowany czy na przykład możliwość zaprogramowania biletu okresowego). DOI: 10.15199/59.2018.8-9.27 PRZEGLĄD TELEKOMUNIKACYJNY - ROCZNIK XCI - WIADOMOŚCI TELEKOMUNIKACYJNE - ROCZNIK LXXXVII - nr 8-9/2018 679 Polska, w 2008 roku, w ramach finansowanego ze środków europejskich Programu Operacyjnego Innowacyjna Gospodarka 2007-2013, rozpoczęła wart blisko 300 mln złotych projekt pl.ID którego celem było wprowadzenie dowodu osobistego z warstwą elektroniczną oraz zintegrowanie go z systemami teleinformatycznymi administracji publicznej. W czasie trwania projektu zrezygnowano jednak z wprowadzania elektronicznego dowodu tożsamości do więcej »

WZAJEMNA KOHERENTNA ANALIZA KOWARIANCYJNA ŁĄCZNIE OKRESOWO NIESTACJONARNYCH SYGNAŁÓW LOSOWYCH O NIEZNANYM OKRESIE - DOI:10.15199/59.2018.8-9.61
Igor Jaworski Roman Juzefowycz Zbigniew Zakrzewski Jacek Majewski 
1. WPROWADZENIE Wzajemna analiza kowariancyjna i widmowa łącznie okresowo niestacjonarnych sygnałów losowych (ONSL) pełni podstawową rolę przy analizie układów wielowymiarowych, przy detekcji wielosensorowej, zagadnieniach estymacji opóźnienia, kąta nadejścia sygnału, jak też i innych [1-3, 6, 9]. Wzajemna funkcja kowariancji ONSL b (t,u) E (t ) (t u) więcej »

  • Aktualnoś›ci
  • Bestsellery
2018-12-12

100-LECIE POWSTANIA SEP»

2018-11-28

Posiedzenie Rady-Naukowo-Technicznej SEP»

2018-09-25

Targi Energetyczne ENERGETICS 2018»

2018-03-26

Rada Firm SEP»

2017-12-07

innogy dodaje energii na Sylwestra»

2017-11-16

Herkules wygrał przetarg GSM-R dla PKP PLK»

2017-11-15

Zasilanie dla metra»

2017-11-13

I FORUM COBOTYKI»

2017-10-17

Targi ENERGETICS - jubileuszowa 10 edycja»

2017-09-28

Zarys historii elektroniki w Polsce»

Możliwości współpracy automatyki samoczynnego załączania rezerwy i systemu FDIR

WIADOMOŚCI ELEKTROTECHNICZNE
(2018-12)»

Modelowanie spalania paliw gazowych w komorach grzewczych metodą DRGEPSA

HUTNIK - WIADOMOŚCI HUTNICZE
(2018-12)»

Wybrane zagadnienia postępowania z odpadami w kontekście bezpieczeństwa ekologicznego na przykładzie Wojskowych Zakładów Uzbrojenia S.A.

PROBLEMY JAKOŚCI
(2018-12)»

Jak zmiany klimatu wpływają na niedźwiedzia brunatnego?

AURA OCHRONA ŚRODOWISKA
(2018-12)»

Wybrane aspekty dotyczące fałszowania żywności

PRZEMYSŁ SPOŻYWCZY
(2018-12)»

Radar harmoniczny do wykrywania zdalnie uruchamianych ładunków IED

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
(2018-12)»

Długoterminowe magazynowanie energii w złożach adsorpcyjnych

CHŁODNICTWO
(2018-6)»

Stabilność antocyjanów w wybranych mrożonych owocach

CHŁODNICTWO
(2018-6)»

Wykorzystanie metod i narzędzi zarządzania jakością usług w podmiotach leczniczych. Analiza przypadków

PROBLEMY JAKOŚCI
(2019-1)»

Zawodowe i środowiskowe narażenie narządu słuchu na toksyczne działanie metali ciężkich

PRZEMYSŁ CHEMICZNY
(2018-12)»

LISTA CZASOPISM

  • ATEST - OCHRONA PRACY
  • AURA OCHRONA ŚRODOWISKA
  • CHŁODNICTWO
  • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
  • DOZÓR TECHNICZNY
  • ELEKTROINSTALATOR
  • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
  • GAZ, WODA I TECHNIKA SANITARNA
  • GAZETA CUKROWNICZA
  • GOSPODARKA MIĘSNA
  • GOSPODARKA WODNA
  • HUTNIK - WIADOMOŚCI HUTNICZE
  • INŻYNIERIA MATERIAŁOWA
  • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
  • MATERIAŁY BUDOWLANE
  • OCHRONA PRZED KOROZJĄ
  • ODZIEŻ
  • OPAKOWANIE
  • PROBLEMY JAKOŚCI
  • PRZEGLĄD ELEKTROTECHNICZNY
  • PRZEGLĄD GASTRONOMICZNY
  • PRZEGLĄD GEODEZYJNY
  • PRZEGLĄD MECHANICZNY
  • PRZEGLĄD PAPIERNICZY
  • PRZEGLĄD PIEKARSKI I CUKIERNICZY
  • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
  • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
  • PRZEMYSŁ CHEMICZNY
  • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
  • PRZEMYSŁ SPOŻYWCZY
  • RUDY I METALE NIEŻELAZNE
  • SZKŁO I CERAMIKA
  • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
  • WIADOMOŚCI ELEKTROTECHNICZNE
  • WOKÓŁ PŁYTEK CERAMICZNYCH

WYSZUKIWANE FRAZY

aura żywność ekologiczna inżynieria materiałowa konserwanty suszenie grzyby przemysł chemiczny elektronika grafen haccp logistyka cukier herbata gospodarka mięsna miód materiały budowlane gospodarka wodna transglutaminaza dodatki do żywności pszenica Żarczyński ksylitol przegląd elektrotechniczny chleb ryby olej lniany pieczywo Amarantus olej rzepakowy jakość atest 7 kukurydza czekolada gluten gmo antyoksydanty kaizen mleko ocena ryzyka drożdże błonnik Przemysl Chemiczny makaron ochrona przed korozją pompy ciepła Kociołek-Balawejder PRZEMYSŁ SPOŻYWCZY problemy jakości żywność funkcjonalna przegląd papierniczy wino lody przegląd mleczarski orkisz proso kawa wzbogacanie żywności antocyjany Akrylamid ekstruzja zamrażanie nanotechnologia polifenole kakao kiełki kontakt aluminium zielona herbata analiza sensoryczna błonnik pokarmowy sól opakowania mięso reologia ocena ryzyka zawodowego rokitnik olejki eteryczne ARONIA opakowania aktywne enzymy karotenoidy jęczmień masło dynia kofeina mąka biogaz kefir liofilizacja ścieki fotowoltaika żyto jakość żywności Wiadomości elektrotechniczne celiakia salmonella przyprawy probiotyki PIWO
  • WYDAWNICTWO | PRENUMERATA | REKLAMA | DRUKARNIA | KOLPORTAŻ | REGULAMIN E-USŁUG
Projekt i wykonanie: Pragma Software