• LOGOWANIE
  • KOSZYK
  • KONTAKT
    • WYDAWNICTWO
    • REDAKCJE
      • ATEST - OCHRONA PRACY
      • AURA OCHRONA ŚRODOWISKA
      • CHŁODNICTWO
      • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
      • DOZÓR TECHNICZNY
      • ELEKTROINSTALATOR
      • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
      • GAZ, WODA I TECHNIKA SANITARNA
      • GOSPODARKA MIĘSNA
      • GOSPODARKA WODNA
      • HUTNIK - WIADOMOŚCI HUTNICZE
      • INŻYNIERIA MATERIAŁOWA
      • MATERIAŁY BUDOWLANE
      • OCHRONA PRZED KOROZJĄ
      • OPAKOWANIE
      • PROBLEMY JAKOŚCI
      • PRZEGLĄD ELEKTROTECHNICZNY
      • PRZEGLĄD GASTRONOMICZNY
      • PRZEGLĄD GEODEZYJNY
      • PRZEGLĄD MECHANICZNY
      • PRZEGLĄD PAPIERNICZY
      • PRZEGLĄD PIEKARSKI I CUKIERNICZY
      • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
      • PRZEGLĄD TELEKOMUNIKACYJNY
      • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
      • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
      • PRZEMYSŁ CHEMICZNY
      • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
      • PRZEMYSŁ SPOŻYWCZY
      • RUDY I METALE NIEŻELAZNE
      • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
      • WIADOMOŚCI ELEKTROTECHNICZNE
      • WOKÓŁ PŁYTEK CERAMICZNYCH
    • REKLAMA
    • DRUKARNIA
    • KOLPORTAŻ
  • PRENUMERATA
  • LISTA CZASOPISM
    • ATEST - OCHRONA PRACY
    • AURA OCHRONA ŚRODOWISKA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • DOZÓR TECHNICZNY
    • ELEKTROINSTALATOR
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • OPAKOWANIE
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  • WIRTUALNA CZYTELNIA
 
PORTAL INFORMACJI TECHNICZNEJ - NAJWIĘKSZA BAZA ARTYKUŁÓW TECHNICZNYCH ONLINE - AKTUALNIE 116514 PUBLIKACJE
  •   CZASOPISMA  
    • ATEST - OCHRONA PRACY
    • AURA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • ELEKTROINSTALATOR
    • DOZÓR TECHNICZNY
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • OPAKOWANIE
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY - WIADOMOŚCI TELEKOMUNIKACYJNE
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  •   KSIĄŻKI 
  • WIRTUALNA CZYTELNIA
  •   PRENUMERATA 
  •   REKLAMA 
  •   DRUKARNIA 
  •   KOLPORTAŻ 
  •   WYDAWNICTWO
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • 2017-6

PRZEGLĄD TELEKOMUNIKACYJNY

miesięcznik ISSN 1230-3496, e-ISSN 2449-7487 - rok powstania: 1928
Stowarzyszenie Elektryków Polskich

BADANIE MECHANIZMU ZAPEWNIENIA QoS DLA RUCHU WEBRTC W SIECI 802.11
(ang. INVESTIGATION OF MECHANISM OF QoS ASSURANCE FOR WEBRTC TRAFFIC IN THE 802.11 NETWORKS)

DOI:10.15199/59.2017.6.36
Robert R. Chodorek Agnieszka Chodorek 
Streszczenie
W artykule przedstawione zostały badania systemu zapewnienia jakości usług sieciowych (QoS) dla ruchu WebRTC. Jako przykład ruchu WebRTC został użyty ruch generowany przez aplikację wideokonferencyjną. Mechanizmy zapewnienia jakości WebRTC są obecnie opisane dokumentem roboczym Internet Draft i zakładają użycie architektury Diffserv. Badania prowadzone były w sieci 802.11. Zastosowano typowe odwzorowanie parametrów architektury DiffServ (danych punktem kodowym DSCP) w parametry jakościowe sieci 802.11.
Słowa kluczowe: DSCP, IEEE 802.11, QoS, WebRTC
Abstract
In this paper, an investigation of mechanism of quality of service (QoS) assurance for WebRTC traffic is presented. As an example of the WebRTC traffic, a traffic generated by videoconferencing applications was used. Mechanisms of QoS assurance for WebRTC traffic are described in an IETF's working document (Internet Draft) and assumes usage of the DiffServ architecture. An investigation was carried out in the 802.11 network. Typical mapping of a DSCP value (parameters of the DiffServ) into a 802.11 classification of QoS was used.
Keywords: DSCP, IEEE 802.11, QoS, WebRTC
WebRTC (ang. Web Real-Time Communications) [1][2] to nowa, alternatywna dla obecnie stosowanej architektury MMUSIC (z ang. Multiparty MUltimedia SessIon Control) [3], architektura aplikacji tele- i wideokonferencyjnych, w której rolę interfejsu użytkownika pełni przeglądarka WWW. Architektury te, choć zostały opracowane w odstępie kilkunastu lat, łączy wiele podobieństw. Podobnie, jak MMUSIC, WebRTC do transmisji informacji multimedialnej wykorzystuje protokół RTP (ang. Real-time Transport Protocol). Również ustanawianie sesji WebRTC [4] (pomimo istotnej różnicy w stosie protokołowym) odbywa się w sposób zbliżony do ustanawiania sesji MMUSIC, co pozwala na w miarę bezproblemowe łączenie się ze sobą aplikacji zbudowanych w oparciu o te dwie architektury [5][6][7]. Wspomniana wyżej różnica to zastąpienie protokołu SIP (ang. Session Initiation Protocol), będącego sztandarowym protokołem MMUSIC, protokołem JSEP (ang. JavaScript Session Establishment Protocol). Istotną różnicą pomiędzy WebRTC a MMUSIC jest zmiana podejścia do gwarancji jakości usługi (ang. Quality of Service, QoS) oferowanej przez każdą z tych architektur. MMUSIC zakładała, iż zapewnienie odpowiedniej jakości usługi tele- i wideokonferencyjnej będzie się odbywać z wykorzystaniem elementu architektury usług zintegrowanych (ang. Integrated Services, Int- Serv) - protokołu RSVP (ang. Resource Reservation Protocol). WebRTC zakłada użycie, alternatywnej do IntServ, architektury usług zróżnicowanych (ang. Differentiated Services, DiffServ) [8]. Architektura DiffServ opiera się na podziale ruchu na klasy o zróźnicowanym sposobie obsługi. Obsługa zależy od tzw. PHB (ang. Per-Hop Behavior) [10], definiującego zachowanie (ang. behavior) ruchu w sieci Internet (de facto definiuje on właściwości przekazywania pakietów w ruterze). Wybór PHB jest tożsamy z wyborem danej klasy ruchu. Rutery pośredniczące informowane są o wybranym PHB (wybranej klasie) za pomocą sześciobit [...]
 

  • ZAKUP JEDNORAZOWY I DOSTĘP DO WIRTUALNEJ CZYTELNI
  • PRENUMERATA PAPIEROWA

   
Metoda płatności: Płatności elektroniczne (karta kredytowa, przelew elektroniczny)
Dostęp do publikacji - jednorazowy (płatność elektroniczna) - tylko 6,00 zł
(płacisz 45% mniej niż przy płatności SMS)
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma - 1h tylko 24.60 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma - 4h tylko 43.05 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma - 12h tylko 73.80 zł
 DO KOSZYKA 
Metoda płatności: SMS Premium
Dostęp do publikacji - jednorazowy (płatność SMS'em) - 11,07 zł brutto (9,00 zł + VAT)
  kup! (SMS)    
 

Prenumerata

Szanowny Kliencie!
Zamów roczną prenumeratę w wersji PLUS a uzyskasz dostęp do archiwalnych publikacji tego czasopisma.
Nie zwlekaj - skorzystaj z tysięcy publikacji o najwyższym poziomie merytorycznym.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 486,00 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 437,40 zł *)
prenumerata papierowa roczna - 396,00 zł
prenumerata papierowa półroczna - 198,00 zł
prenumerata papierowa kwartalna - 99,00 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »


Bibliografia

[1] Loreto Salvatore, Romano Simon Pietro. 2014. "Real-Time Communication with WebRTC: Peerto- Peer in the Browser". O'Reilly Media, Inc.
[2] Grigorik Ilya. 2013. "High Performance Browser Networking". O'Reilly Media.
[3] Handley M., Crowcroft J., Bormann C., Ott J. 2000. "The Internet Multimedia Conferencing Architecture". Internet-Draft draft-ietf-mmusic-confarch-03.
[4] Chodorek Robert R., Chodorek Agnieszka. 2016. "Model warstwowy ustanawiania sesji WebRTC". Studia Informatica, 37 (2) : 117-126.
[5] Chodorek Robert R., Rzym Grzegorz, Wajda Krzysztof, Chodorek Agnieszka. 2016. "Analiza współpracy terminali mobilnych wykorzystujących technikę WebRTC z telefonią VoIP stosującą protokół SIP". Przegląd Telekomunikacyjny, 89 (6) : 340- 343.
[6] Rzym Grzegorz, Wajda Krzysztof, Chodorek Robert R., Chodorek Agnieszka. 2016. "Testy współpracy programowej centrali Asterisk z techniką WebRTC". Przegląd Telekomunikacyjny, 89 (8-9) : 921-928.
[7] Chodorek Robert R., Rzym Grzegorz, Wajda Krzysztof, Chodorek Agnieszka. 2016. "Współpraca techniki WebRTC z systemami wykorzystującymi SIP". Przegląd Telekomunikacyjny, 89 (6) : 340- 343.
[8] Antosik Bartosz. 2010. "Transmisja internetowa danych multimedialnych w czasie rzeczywistym". Wydawnictwa Komunikacji i Łączności.
[9] Nichols K., Blake S., Baker F., Black D. 1998. "Definition of the Differentiated Services Field (DS Field) in the IPv4 and IPv6 Headers". RFC 2474.
[10] Grossman D. 2002. "New Terminology and Clarifications for Diffserv". RFC 3260.
[11] Jones P., Dhesikan S., Jennings C., Druta D. 2016. "DSCP Packet Markings for WebRTC QoS". Internet- Draft draft-ietf-tsvwg-rtcweb-qos-18.
[12] 2012. "Information technology - Telecommunications and information exchange between systems - Local and metropolitan area networks - Specific requirements - Part 11: Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) specifications". IEEE Standard 802.11.
[13] 2008. "QoS on Wireless LAN Controllers and Lightweight APs Configuration Example". http://www.cisco.com/c/en/us/support/docs/wireless -mobility/wireless-lan-wlan/81831-qos-wlc-lap.html
[14] http://static.tplink. com/resources/gpl/gpl_archer_c8_v1.tar.bz2/, dostęp marzec 2017
[15] Dhesikan S., Druta D., Jones P., Polk J. 2014. "DSCP and other packet markings for RTCWeb QoS". Internet-Draft draft-ietf-tsvwg-rtcweb-qos-00.
[16] Black D., Jones P. 2015. "Differentiated Services (Diffserv) and Real-Time Communication". RFC 7657.
[17] Bless R., Nichols K., Wehrle K. 2003. "A Lower Effort Per-Domain Behavior (PDB) for Differentiated Services". RFC 3662.
[18] Davie B., Charny A., Bennet J., Benson K., Le Boudec J., Courtney W., Davari S., Firoiu V., Stiliadis D. 2002. "An Expedited Forwarding PHB (Per-Hop Behavior)". RFC 3246.
[19] Heinanen J., Baker F., Weiss W., Wroclawski J. 1999. "Assured Forwarding PHB Group". RFC 2597.
[20] https://iperf.fr/, dostęp marzec 2017.

Rekomenduj znajomym
  • facebook
  • twitter
  • gplus
  • pinterest

INNE PUBLIKACJE W TYM ZESZYCIE

ADAPTACYJNA METODA ZARZĄDZANIA ZASOBAMI MULTIPLEKSU W RADIOFONII CYFROWEJ DAB+ - DOI:10.15199/59.2017.6.95
Przemysław Gilski Jacek Stefański 
Wraz z rozwojem techniki bezprzewodowej pojawiają się rosnące wymagania użytkowników na coraz to nowe usługi oraz produkty. Dla inżynierów wiąże się to z koniecznością ciągłego doskonalenia technik transmisji i kodowania informacji, szczególnie w systemach radiodyfuzji cyfrowej. Obecnie najpopularniejszym medium jest radiofonia, która łączy ponad 2 miliardy ludzi na całym świecie. Współczesna transmisja radiowa konkuruje z innymi systemami transmisji rozsiewczej, obejmującymi szeroką gamę usług multimedialnych, w szczególności telewizją oraz transmisją strumieniową. Z uwagi na ograniczone zasoby widmowe oraz rosnące oczekiwania użytkowników, konieczne jest opracowanie nowych metryk oraz metod pozwalających na efektywne zarządzanie dostępnymi zasobami. W artykule tym szczególną uwagę przywiązano do kwestii zarządzania zasobami multipleksu w systemie radiofonii cyfrowej DAB+. 2. RADIOFONIA NAZIEMNA Początki radiofonii analogowej sięgają lat 50-tych i 60-tych XX wieku. Z uwagi na nasycenie przyznanego pasma oraz trudności z wprowadzaniem nowych programów radiowych, zarówno na poziomie krajowym jak i lokalnym, w latach 80-tych pojawiła się koncepcja cyfryzacji radiofonii. Powstały liczne standardy, które miały zastąpić klasyczną radiofonię AM (Amplitude Modulation) oraz FM (Frequency Modulation), albo zostać wprowadzone równolegle w innym paśmie. Oprócz większej odporności na zakłócenia oraz zjawiska związane z propagacją wielodrogową, radiofonia cyfrowa oferuje szeroką gamę usług multimedialnych, polegających na przesyłaniu dodatkowych danych wraz z sygnałem audio. Jednym z najpopularniejszych standardów jest DAB+ (Digital Audio Broadcasting plus) [1-3]. 2.1. Formowanie sygnału Formowanie sygnału w przypadku radiofonii analogowej oraz cyfrowej przebiega w sposób odmienny. Największą różnicę stanowi sposób przetwarzania i zarządzania materiałem pochodzącym od różnych dostawców usług (nadawców). Na rys. 1 przedstawiono sp więcej »

Akustyka a multimedia - DOI:10.15199/59.2017.6.4
Jan Żera 
Współczesne multimedia korzystają z widocznego obecnie znacznego rozwoju techniki cyfrowej i telekomunikacji. W praktyce oznacza to przyspieszony, zauważalny rozwój praktycznych zastosowań w zakresie przetwarzania obrazu.To z kolei wymusza coraz szersze stosowanie przestrzennych technik dźwiękowych. Techniki dźwiękowe znajdujące zastosowanie we współczesnych multimediach mają umocowanie w ponad stuletniej tradycji prac badawczych prowadzonych dla zrozumienia istotnych cech odbioru dźwięku i stopniowych doświadczeń związanych z rozwojem technologii nagrywania i odtwarzania dźwięku. Celem artykułu jest krótkie przedstawienie wybranych aspektów badań nad dźwiękiem, a także jego percepcją tych aspektów, które znajdują zastosowanie we współczesnych multimediach, obejmując istotne cechy słyszenia przestrzennego i wynikające stąd techniki przetwarzania dźwięku, zarówno w odniesieniu do odtwarzania dźwięku przestrzennego z użyciem słuchawek, jak i elementów odtwarzania w systemach głośnikowych. Przedstawiono szkic czterech obszarów prac w dziedzinie akustyki, stanowiących podstawę dla zastosowań multimedialnych przy realizacji dźwięku przestrzennego. Są to niektóre podstawowe zagadnienia związane z przestrzennym odbiorem dźwięku, elementy technologii HRTF (Head Related Transfer Functions) służącej uzyskaniu przestrzennego dźwięku przy odsłuchu słuchawkowym, w ograniczonym zakresie techniki numerycznego symulowania propagacji dźwięku w pomieszczeniach, techniki odtwarzania wirtualnego dźwięku przestrzennego w systemach głośnikowych i matryce mikrofonowe. Wspomniane obszary nie oznaczają całości związków akustyki ze współczesnymi multimediami. Pominięte są zagadnienia związane z kompresją dźwięku, która w przypadku kompresji stratnej korzysta się z wiedzy o percepcji dźwięku w warunkach maskowania. Badania maskowania rozpoczęły się wraz z opublikowaniem klasycznego artykułu Wegela i Lane,a już w roku 1924 [1] i były kontynuowane przez więcej »

ANALIZA DZIAŁANIA ALGORYTMÓW WIELOPRZEPŁYWNOŚCIOWYCH W SIECIACH STANDARDU IEEE 802.11AA - DOI:10.15199/59.2017.6.17
Marek Natkaniec Łukasz Prasnal 
Rosnąca liczba użytkowników mobilnych korzystających z sieci Internet, a także wzrastająca popularność usług strumieniowania dźwięku oraz wideo powoduje konieczność poprawy jakości świadczonych usług QoS (Quality of Service) w lokalnych sieciach bezprzewodowych WLANs. W tym celu tworzone są kolejne rozszerzenia standardu IEEE 802.11 umożliwiające prawidłową transmisję usług multimedialnych, bogatych w treści dźwiękowe oraz sekwencje wizyjne. Jednym z najnowszych rozszerzeń poruszających problem QoS w sieciach WLAN jest standard IEEE 802.11aa, który został opublikowany w 2012 roku [2]. Standard IEEE 802.11 definiuje również wiele różnych warstw fizycznych, które umożliwiają uzyskanie zróżnicowanych maksymalnych szybkości transmisji w pasmach częstotliwości 2,4 GHz oraz 5 GHz. Większość z nich w celu zapewnienia prawidłowej transmisji dla różnych warunków panujących w kanale radiowym (związanych ze zmieniającą się odległością pomiędzy stacją nadawczą i odbiorczą) umożliwia użycie różnych rodzajów modulacji oraz sprawności kodowania. Za optymalny (umożliwiający maksymalizację wydajności pracy sieci) wybór szybkości transmisji odpowiadają tzw. algorytmy wieloprzepływnościowe (multirate algorithms). Celem niniejszej pracy było przeprowadzenie analizy możliwości realizacji usług strumieniowania dźwięku i sekwencji wideo podczas równoczesnej transmisji ruchu Best Effort w warunkach mobilności dla różnych algorytmów wieloprzepływnościowych. Rozdział 2 przedstawia rozszerzony schemat funkcji EDCA z wewnątrzklasowym różnicowaniem ruchu. W rozdziale 3 przybliżono zasadę działania najczęściej stosowanych algorytmów wieloprzepływnościowych. W rozdziale 4 zawarto wyniki badań symulacyjnych pokazujące działanie tych algorytmów dla dwóch różnych scenariuszy pracy sieci bezprzewodowej podczas gdy rozdział 5 zawiera krótkie podsumowanie niniejszej pracy. 2. WEWNĄTRZKLASOWE RÓŻNICOWANIE RUCHU W STANDARDZIE IEEE 802.11aa Rozszerzenie IE więcej »

ANALIZA MOŻLIWOŚCI WSPÓŁDZIELENIA CZĘSTOTLIWOŚCI W PASMIE F - STUDIUM PRZYPADKU - DOI:10.15199/59.2017.6.53
Adrian Kliks Paweł Kryszkiewicz Karol Kowalik Michał Kołodziejski 
Zagadnienie efektywnego wykorzystania zasobów częstotliwościowych stanowi jeden z fundamentów rozwoju szeroko rozumianej telekomunikacji bezprzewodowej. Nieustannie zwiększające się wymagania klientów względem jakości dostarczanych przez operatorów usług istotnie stymulują proces powstawania nowych rozwiązań, pozwalających na lepsze użycie dostępnych pasm częstotliwościowych [5]. Jednym z możliwych rozwiązań pozwalających na zwiększenie efektowności wykorzystania pasma radiowego jest wprowadzenie zaawansowanych algorytmów z zakresu przetwarzania sygnałów. Jednak obecnie problem nieefektywnego wykorzystania zasobów częstotliwościowych w kontekście wprowadzania przyszłych systemów bezprzewodowych (tzw. piątej generacji i późniejszych) jest często łączony z technologią radia kognitywnego [1]. Zakłada się w niej, że fragmenty pasma częstotliwościowego oryginalnie przypisane do konkretnego typu usługi, a jednak wolne w danym czasie i w danej lokalizacji, mogą być dynamicznie wykorzystane w celu równoczesnego świadczenia usług innym użytkownikom (tzw. nielicencjonowanym). Jest to możliwe tylko w sytuacji, gdy nowe usługi nie będą powodowały pogorszenia jakości usług oferowanych tzw. użytkownikom pierwotnym lub inaczej licencjonowanym. Takie jednak założenie pociąga za sobą konieczność dokładnej analizy środowiska radiowego i natychmiastowego reagowania na zachodzące w nim zmiany. W literaturze można odnaleźć wiele rozważań i analiz prowadzonych w odniesieniu do poszczególnych elementów systemów bezprzewodowych opartych na koncepcji radia kognitywnego. Dotyczą one m.in. poszczególnych faz cyklu kognitywnego [3], np. uczenia się systemu. Z dotychczasowych wyników można wysnuć wniosek, że technologia ta wymaga jeszcze wielu gruntownych badań zarówno teoretycznych jak i (może w szczególności) eksperymentalnych. Jednym z przypadków zastosowania radia kognitywnego jest sytuacja, kiedy pasmo jednego operatora jest wykorzystywane w więcej »

ANALIZA OBCIĄŻENIA INTERFEJSU RADIOWEGO, PO STRONIE ODBIORNIKA, W SEGMENCIE SATELITARNYM SYSTEMU AIS - DOI:10.15199/59.2017.6.52
Marcin Waraksa Jerzy Żurek 
W ciągu minionych kilku lat znacznie wzrosło zainteresowanie krajowych i zagranicznych instytucji odpowiedzialnych za bezpieczeństwo i ochronę żeglugi morskiej systemami globalnego monitorowania ruchu morskiego. Doprowadziło to intensywnego rozwoju na początku XXI w. systemu Long Range Identyfication and Tracking (LRIT) - który nie spełnia wszystkich wymagań i nie realizuje potrzeb użytkowników końcowych w zadowalający ich sposób. Zasadniczą wadą systemu LRIT jest niewielka częstość (raz na 6 godz.) odświeżania danych o pozycji danej jednostki. Można oczywiście, na żądanie zainteresowanej strony, zwiększyć częstość aktualizacji otrzymywanych danych - jednak wiąże się to z koniecznością poniesienia dodatkowych kosztów. Wobec powyższego naturalnie wzrosło zainteresowanie możliwością opracowania satelitarnego segmentu systemu AIS, szczególnie, że każda jednostka podlegająca konwencji SOLAS (Safety of Life at Sea) jest zobligowana to uczestnictwa w tym systemie i posiadania sprawnego transpondera AIS klasy A, ponadto jednostki pozakonwencyjne są sukcesywnie doposażane w transpondery AIS klasy B. Na przestrzeni ostatnich 8 lat umieszczono na orbicie okołoziemskiej 7 satelitów wyposażonych w odbiorniki AIS, przyznano dwa dedykowane kanały fizyczne (kanały 75 oraz 76 morskiego pasma VHF) i zdefiniowano nowy typ wiadomości dedykowanej dla segmentu satelitarnego AIS. Od 2014 w Polsce również trwają prace, prowadzone na zlecenie Europejskiej Agencji Kosmicznej (European Space Agency - ESA), mające na celu budowę polskiego segmentu satelitarnego AIS - w ramach projektów POL-SAT-AIS Pre-Feasibility Study oraz SAT-AIS-PL Phase A. Pomimo zaangażowania znacznych sił i środków na rozwój segmentu satelitarnego systemu AIS (SAT-AIS) do tej pory nie udało się rozwiązać głównego problemu jakim są kolizje wiadomości odbieranych przez satelitę. W prezentowanej pracy autorzy proponują alternatywne podejście od problematyki kolizji - i wykaz więcej »

ANALIZA POLARYZACJI I TŁUMIENIA FAL RADIOWYCH W SIECIACH WBAN TYPU OFF-BODY - DOI:10.15199/59.2017.6.69
Sławomir J. Ambroziak Kenan Turbić Luís M. Correia 
Sieci WBAN (Wireless Body Area Networks), zbudowane z dużej liczby urządzeń wyposażonych w moduły pomiarowe, wykonawcze i komunikacyjne oraz mające zdolność długotrwałej i autonomicznej pracy, charakteryzują się szerokim wachlarzem zastosowań, od medycznych - ratujących życie ludzkie, do tych związanych z rozrywką [1]. Efektywność pracy tych sieci zależy w dużej mierze od możliwości skutecznej wymiany informacji zarówno pomiędzy urządzeniami nasobnymi (bądź wszczepialnymi), jak i urządzeniami znajdującymi się w pewnej odległości od ciała człowieka. W takim stanie rzeczy, niezwykle istotne jest poznanie mechanizmów propagacyjnych zachodzących w kanałach radiowych tych sieci, uwzględniających także depolaryzację fal radiowych. Jednakże w literaturze przedmiotu nieliczne są prace dotyczące tego zagadnienia w sieciach WBAN typu off-body. [2-5] W referacie zaprezentowano wyniki analizy polaryzacji fal radiowych w sieciach WBAN typu off-body, pracujących w środowisku wewnątrzbudynkowym, przeprowadzonej na podstawie wyników badań pomiarowych zrealizowanych dla częstotliwości 2,45 GHz. Ponadto przedstawiono empiryczny wąskopasmowy model propagacyjny dla tego typu sieci, który - po uwzględnieniu polaryzacji anten - stanowi uogólnienie modelu zaprezentowanego w [6]. Warto podkreślić, że badania te są prowadzone w ramach akcji COST CA15104, pt. "Integracyjne sieci komunikacji radiowej 5. i wyższych generacji - IRACON" (Inclusive Radio Communication Networks for 5G and Beyond) [7]. 2. OPIS BADAŃ POMIAROWYCH Badania pomiarowe zostały zrealizowane przy zastosowaniu stanowiska zaprojektowanego i zbudowanego w Katedrze Systemów i Sieci Radiokomunikacyjnych Politechniki Gdańskiej. Szczegółową charakterystykę stanowiska zaprezentowano w [6], natomiast poniżej przedstawiono jego zwięzły opis. Część nadawcza składa się z generatora SMBV100A oraz mikropaskowej anteny nadawczej (ATx) zaprojektowanej na częstotliwość 2,45 GHz, wchodzącą w więcej »

ANALIZA PROCESU IDENTYFIKACJI INTERFEJSÓW INFORMATYCZNYCH NA BAZIE EMISJI PROMIENIOWANEJ Z WYKORZYSTANIEM BAZY DANYCH - DOI:10.15199/59.2017.6.87
Rafał Przesmycki Marian Wnuk 
Energia emitowana (ε) przez dowolne źródło, ogólnie biorąc, może zależeć od częstotliwości (f), czasu (t) i kierunku ().Wielkość ε można uważać za operator opisujący przekształcenie energii wyzwalanej w źródle (która zależy tylko od częstotliwości i czasu) w przestrzenno- czasowo-częstotliwościowy rozkład energii w ośrodku otaczającym źródło. Jeżeli właściwości kierunkowe, częstotliwościowe i czasowe źródła są niezależne od siebie, to jego zdolność emisyjna ε może być przedstawiona w postaci iloczynu trzech funkcji, reprezentujących oddzielne charakterystyki opisujące selektywność (wybiórczość) częstotliwościową, kierunkową i czasową źródła. Przy dużej ilości źródeł emisji działających jednocześnie wypadkowy proces zawiera dominujące dyskretne składowe o szczególnie dużej intensywności oraz tło elektromagnetyczne, zbliżone do szumu. Intensywność emisji zamierzonej w zasadzie można oszacować na podstawie rozmieszczenia przestrzenno-czasowoczęstotliwościowego źródeł, promieniowanej mocy i innych znamionowych parametrów wchodzących w grę urządzeń. Natomiast emisja niezamierzona jest znacznie trudniejsza do oceny ilościowej. Takim przykładem jest system współmiejscowy, w którym jednocześnie znajduje się kilka źródeł emisji elektromagnetycznej. Na podstawie prowadzonych badań i uzyskanych wyników pomiarowych można stwierdzić, że istnieje możliwość zidentyfikowania interfejsów sprzętowych urządzenia informatycznego powodujące wzrost poziomu emisyjności. Cechą dystynktywną pracy poszczególnych interfejsów jest więc jego częstotliwość pracy oraz poziom emisyjności pozwalające na identyfikację danego interfejsu sprzętowego. Biorąc pod uwagę powyższe istnieje możliwość zbudowania bazy danych, która w łatwy sposób wspomoże proces identyfikacji poszczególnych interfejsów urządzenia informatycznego [1, 3, 4]. 2. PROCES IDENTYFIKACJI INTERFEJSÓW SPRZĘTOWYCH URZĄDZENIA INFORMATYCZNEGO Ogólnie proces identyfikac więcej »

ANALIZA WSPÓŁZALEŻNOŚCI MODULACJI ŁĄCZNIE OKRESOWO NIESTACJONARNYCH SYGNAŁÓW LOSOWYCH - DOI:10.15199/59.2017.6.40
Igor Jaworski Roman Juzefowycz Zbigniew Zakrzewski Jacek Majewski 
Z koniecznością przeprowadzenia analizy powiązań między właściwościami sygnałów spotykamy się w wielu zagadnieniach telekomunikacyjnych (badanie kanałów transmisyjnych, identyfikacji torów przesyłowych, lokalizacji i oceny źródeł sygnałów itp. [1,2,10,11]). Taka analiza może być przeprowadzona w oparciu o te charakterystyki, które opisują wzajemne właściwości sygnałów. Dla łącznie stacjonarnych sygnałów  t  i  t  podstawowymi charakterystykami są widmowe gęstości mocy f     i f     , jak też wzajemna gęstość widmowa f     . Określona na podstawie tych wielkości funkcja koherencji         f f f           umożliwia wydzielenie tej części mocy jednego z sygnałów, która przy częstotliwości  jest określona mocą drugiego [1,2]. Sygnały, z którymi w większości przypadków mamy do czynienia w radiokomunikacji, są okresowo niestacjonarnymi sygnałami losowymi (ONSL) [3,4,5,12]. Jeśli takie sygnały są łącznie ONSL, to ich wzajemna funkcja kowariancji b t,u E t       t  u , t  t  m t      , t  t  m t      , m t  E t     , m t  E t     , E - operator wartości oczekiwanej, jak też wzajemna gęstość widmowa     1 , , 2 i u f t b t u e du      więcej »

ANALIZA WYBRANYCH ROJOWYCH ALGORYTMÓW OPTYMALIZACJI W ZAGADNIENIACH PLANOWANIA SIECI WLAN - DOI:10.15199/59.2017.6.35
Adam Pieprzycki Wiesław Ludwin 
W zadaniu planowania liczby punktów dostępu AP (Access Point) do sieci WLAN (Wireless Local Area Network), ich wzajemnego położenia zarówno względem siebie, jak i stacji ST (station), którymi posługują się użytkownicy oraz dobór parametrów pracy tych punktów (moc wyjściowa nadajnika, numer kanału radiowego, parametry techniki dostępu do łącza radiowego, rozmiar pakietu) są wynikiem wyznaczenia optimum przyjętej funkcji kryterialnej. Funkcja kryterialna stanowi wskaźnik oceny jakości poszukiwanego rozwiązania. Zazwyczaj funkcje kryterialne są nieliniowe, a poszukiwanie ich wartości optymalnych wymaga stosowania złożonych algorytmów optymalizacyjnych OPA (OPtimisation Algorithm). W artykule przedstawiono, zweryfikowaną na drodze pomiarowej, tzn. empirycznie, skuteczność planowania sieci WLAN z użyciem funkcji kryterialnej, realizującej koncepcję podziału zasięgu radiowego punktu dostępu AP na obszary [1], w których szybkość transmisji zależy od SINR (Signal to Interference plus Noise Ratio). Ponadto funkcja kryterialna uwzględnia przepustowości osiągane przez poszczególne stacje ST wymieniające dane z punktami AP analizowanej sieci WLAN. Analogicznie, jak zrobiono to w pracy [2], w niniejszym artykule w procesie planowania sieci WLAN przyjęto następującą postać funkcji kryterialnej: 𝐹𝑐 = Σ Σ 𝑆𝑘 ∙ (𝑑𝑗𝑘 2 - 𝑑𝑗(𝑘-1) 2 ) 𝐿𝑇𝑅𝑗 𝑘=1 𝑁𝐴𝑃 𝑗=1 , (1) gdzie: 𝐿𝑇𝑅𝑗 - liczba klas ruchu dla j-tego punktu AP, 𝑆𝑘 - przepustowość dla k-tej klasy (szybkości transmisji), 𝑑𝑗𝑘 - odległość między najdalej położoną stacją ST, należącą do k-tej klasy ruchu, a j-tym punktem AP. Rysunek 1. Analizowana sieć WLAN o 20 stacjach ST i trzech punktach AP W celu optymalnego zaplanowania infrastruktury sieci WLAN stan więcej »

ANALIZA ZASIĘGU STACJI RADIOFONII DAB+ Z WYKORZYSTANIEM NUMERCZYNYCH MODELI POKRYCIA TERENU O BARDZO DUŻEJ ROZDZIELCZOŚCI - DOI:10.15199/59.2017.6.94
Dariusz Wypiór Krzysztof Rzeźniczak Dariusz Więcek Daniel Niewiadomskiz 
Planowanie zasięgów stacji radiowych systemów radiodyfuzyjnych wymaga stosowania numerycznych modeli terenu na etapie obliczeń propagacyjnych [1, 2]. Szczególnym przypadkiem planowania sieci są obszary miejskie, w których duża zmienność pokrycia terenu znacząco zmienia rozkład natężenia pola elektrycznego na analizowanym obszarze. W ostatnich latach nastąpiło duże upowszechnienie zasobów numerycznych modeli terenu (NMT) oraz pokrycia terenu (NMPT) charakteryzujących się bardzo wysoką rozdzielczością. Jednym z takich zasobów - obejmujących swym pokryciem wybrane obszary Polski - są mapy rastrowe NMPT dystrybuowane przez Centralny Ośrodek Dokumentacji Geodezyjnej i Kartograficznej (CODGIK). Reprezentują one dane o rozdzielczości poziomej oczka 0,5 m oraz 1 m, kolejno dla obszarów miejskich i pozostałych. Błąd średni wysokości nie przekracza 20 centymetrów [3]. Stanowi to istotny wzrost szczegółowości odwzorowania terenu względem innych zasobów wcześniej powszechnie stosowanych w procesie planowania systemów radiowych, takich jak np. mapy SRTM lub ASTER. Ich maksymalna rozdzielczość pozioma wynosi 1 sekundę geograficzną, co na terenie Polski przekłada się na oczko około 20x30 m. Wynik renderowania wysokości terenu, obrazujący wysoką dokładność zasobu mapy CODGIK NMPT przedstawiono na rys. 1. Rys. 1. Wynik renderowania zasobu CODGIK NMPT (Centrum Wrocławia). Autorzy artykułu wykonali badania mające na celu scharakteryzować stabilność wyznaczanego rozkładu natężenia pola elektrycznego oraz zasięgów pochodzących od stacji nadawczych w zależności od zmian parametrów definiujących dokładność odczytu danych mapowych podczas obliczeń propagacyjnych. Analizy przeprowadzono dla rzeczywistych obiektów nadawczych systemu DAB+. Stacje te emitują sygnał radiowy o niedużej mocy (250W) mający pokryć wybrane obszary Wrocławia. Na po więcej »

ANTENA ŁATKOWA NA PASMO 120 GHz W BEZSKURCZOWEJ TECHNOLOGII LTCC - DOI:10.15199/59.2017.6.26
Jakub Sobolewski Beata Synkiewicz Paweł R. Bajurko 
Technologia współwypalanej ceramiki niskotemperaturowej LTCC rozwijana jest już od ponad trzech dekad. Stwarza ona możliwość wykonywania miniaturowych modułów elektronicznych odznaczających się wysoką niezawodnością. W związku z tym jest ona często wykorzystywana w bardzo wymagających zastosowaniach, jak przemysł kosmiczny, lotniczy, czy motoryzacja. Wzrastająca precyzja wykonywania struktur LTCC sprawia, że w wielu zastosowaniach staje się ona alternatywą dla kosztownych cienkowarstwowych modułów wielostrukturowych (MCM-D). Przy koszcie porównywalnym z technologią grubowarstwową, LTCC zapewnia znacznie większe możliwości integracji układów ze względu na wielowarstwową budowę i możliwość tworzenia struktur przestrzennych [2]. Stabilne w szerokim zakresie częstotliwości parametry podłoży LTCC oraz ich niska stratność sprawiają, że technologia ta często znajduje zastosowanie w układach mikrofalowych [2]. Oprócz wytwarzania poszczególnych komponentów, LTCC umożliwia integrację w jednym module całego toru radiowego wraz z układem antenowym, a także układów przetwarzania sygnału. Podłoża LTCC są często wykorzystywane do wytwarzania anten. Masowo produkowane są miniaturowe anteny ceramiczne przeznaczone dla najbardziej powszechnych systemów radiokomunikacyjnych. Obecnie ceramika LTCC znajduje coraz szersze zastosowanie w urządzeniach pracujących w paśmie fal milimetrowych. Przy tak wysokich częstotliwościach ujawniają się jednak ograniczenia tej technologii. Najpoważniejszym problemem jest tu ograniczona dokładność wykonania struktury. Elementy układów radioelektronicznych mają zazwyczaj rozmiary porównywalne z długością fali. Z tego względu przyrządy pracujące w paśmie fal milimetrowych charakteryzują się małymi gabarytami. Poza tym, typowe dla ceramiki LTCC wysokie wartości przenikalności elektrycznej powodują znaczne skrócenie fali w dielektryku, co skutkuje dodatkowym zmniejszeniem wymiarów elementów. Ich precyzyjne wyk więcej »

ASYNCHRONICZNY SYSTEM FAZOLOKACYJNY - DOI:10.15199/59.2017.6.80
Jarosław Sadowski Jacek Stefański 
Bezdyskusyjnie dominującą rolę w zakresie systemów radiolokalizacyjnych i radionawigacyjnych wiodą globalne systemy satelitarne (GNSS), jak GPS, GLONASS czy będący w trakcie budowy europejski system Galileo. Znacznie węższe zastosowanie mają wszelkiego rodzaju systemy naziemne, zwykle o zasięgu lokalnym lub regionalnym, których przeznaczeniem jest albo rezerwa na wypadek awarii/celowego zakłócania systemów satelitarnych (taką funkcję pełnią np. instalacje Loran w Korei Południowej i Chinach) albo świadczenie usługi lokalizacyjnej dla wojska i służb specjalnych. Przykładem systemu pełniącego tę drugą rolę może być polski system Jemiołuszka, będący na wyposażeniu Marynarki Wojennej RP. System ten jest "klasycznym" systemem fazolokacyjnym typu synchronicznego, w którym w zestawie stacji bazowych znajduje się wyróżniona stacja główna, względem której synchronizowane są emisje sygnałów z pozostałych stacji łańcucha. W latach 2009-2011 w laboratoriach Politechniki Gdańskiej został zbudowany demonstrator technologiczny naziemnego systemu radiolokalizacyjnego z widmem rozproszonym (CDMA) o innej strukturze: asynchronicznej, w której nie ma wyróżnionej stacji głównej i stacji podległych [1][2]. Ponieważ w trakcie rozmów z potencjalnym użytkownikiem tego typu systemu okazało się, że parametry techniczne zaproponowanego przez Politechnikę Gdańską rozwiązania nie spełniają wszystkich oczekiwań (przede wszystkim w odniesieniu do maksymalnego zasięgu działania), zbudowany został prototyp systemu asynchronicznego typu fazowego, pracujący w paśmie średniofalowym [3]. Założenia systemowe tego rozwiązania zostały przedstawione w rozdziale drugim niniejszego opracowania, zaś konstrukcja urządzeń i uproszczona zasada działania systemu są treścią rozdziału trzeciego. Rozdział czwarty zawiera wyniki badań laboratoryjnych prototypu, pokazujące możliwą do uzyskania rozdzielczość pomiaru położenia odbiornika lokalizacyjnego. 2. ZAŁOŻENIA SYSTE więcej »

AUTOMATYCZNA ORGANIZACJA BAZY MUZYCZNEJ NA PODSTAWIE NASTROJU MUZYKI - DOI:10.15199/59.2017.6.42
Magdalena Piotrowska (Plewa) 
Gwałtowny wzrost bibliotek muzycznych (ich zawartość sięgająca aktualnie milionów utworów muzycznych) łatwo dostępnych przez Internet spowodował rozwój badań w kierunku automatycznych systemów wyszukiwania, organizacji i rekomendacji muzyki. Beneficjentami tych działań są zarówno naukowcy, studenci badający trendy w muzyce, muzykolodzy, jak również użytkownicy systemów rekomendacji muzyki. Warto zwrócić uwagę, że przemysł muzyczny obejmujący systemy rekomendacji muzyki jest jednym z najbardziej dynamicznie rozwijających się przedsięwzięć komercyjnych [11,14,16]. Nastrój muzyki jest uważany za jedno z najbardziej intuicyjnych kryteriów opisu muzyki przez słuchaczy [2,5], dlatego też w prezentowanej pracy skoncentrowano się na organizacji muzyki w kontekście zawartych w niej emocji. Dziedzina automatycznego wyszukiwania muzyki (ang. Music Information Retrieval (MIR)) obejmuje wiele zagadnień, spośród których można wyróżnić główne obszary zainteresowań, takie jak: automatyczna klasyfikacja dźwięków, automatyczne rozpoznawanie melodii (MIDI, audio), rozpoznawanie melodii w wielogłosie (rozdzielanie poszczególnych ścieżek w utworze, itp.), opis muzyki poprzez parametry (opis deskryptorów standardu MPEG-7), wyszukiwanie i rekomendacja muzyki. Automatyczne rozpoznawanie nastroju muzyki (ang. Music Emotion Recognition (MER)) jest jednym z zapytań w ramach MIR, na które spodziewana odpowiedź charakteryzuje się dużą ogólnością, w przeciwieństwie do rozpoznawania wykonawcy, konkretnej wersji utworu, itp. [2]. Nastrój muzyki jest ściśle związany z percepcją emocji. Rozróżnienie pomiędzy emocjami zawartymi w muzyce a emocjami wywołanymi przez muzykę jest niezwykle ważne w kontekście prezentowanej pracy. Przyjęta w niej została terminologia określająca emocje zawarte w sygnale muzycznym jako "nastrój" muzyki. Dla odróżnienia, emocjonalne, osobiste doświadczenie słuchacza jest określane jako "emocje wywołane muzyką". To rozróżnienie więcej »

BADANIA WIDEOKONFERENCJI WYKORZYSTUJĄCEJ WEBRTC Z MOSTKIEM KONFERENCYJNYM W ŚRODOWISKU CHMURY - DOI:10.15199/59.2017.6.58
Robert R. Chodorek Agnieszka Chodorek Grzegorz Rzym Krzysztof Wajda 
Współczesne systemy konferencyjne budowane są jako scentralizowane lub zdecentralizowane [1]. W rozwiązaniach scentralizowanych istnieje centralne urządzenie, zwane mostkiem konferencyjnym, które zarządza konferencją, steruje przebiegiem konferencji, a także dokonuje przetwarzania strumieni mediów (najczęściej miksowania i/lub translacji do zadanego formatu). Rozwiązania zdecentralizowane charakteryzują się brakiem mostka konferencyjnego, a zadania związane z zarządzaniem i sterowaniem konferencją oraz przetwarzaniem strumieni mediów realizowane są w sposób rozproszony, na terminalach klienckich. Rozwiązania zdecentralizowane są bardziej elastyczne, rozwiązania scentralizowane pozwalają na łatwiejsze zarządzanie konferencją. Istnieją również rozwiązania hybrydowe, w których mostek konferencyjny stanowi przejście pomiędzy scentralizowaną i zdecentralizowaną częścią konferencji. Kilkanaście lat temu grupa robocza MMUSIC (z ang. Multiparty MUltimedia SessIon Control) IETF (ang. Internet Engineering Task Force) opracowała architekturę systemu konferencyjnego MMUSIC [1][2]. Ze względu na wykorzystanie multikastu, architektura ta pozwalała na tworzenie telekonferencji zdecentralizowanych lub mieszanych, jednak użycie protokołu sygnalizacyjnego SIP (ang. Session Initiation Protocol), wymagającego istnienia centralnego serwera SIP, oraz ogólna niechęć dostawców Internetu do szerokiego udostępniania usługi multikastowej sprawiły, że MMUSIC stał się de facto standardem systemów scentralizowanych. Obecnie IETF pracuje nad kolejnym standardem, WebRTC (ang. Web Real-Time Communications) [3][4][5]. Bazuje on na języku JavaScript oraz języku HTML 5 i wykorzystuje przeglądarkę WWW (stronę WWW) jako interfejs użytkownika. Protokół SIP został w WebRTC zastąpiony protokołem JSEP (ang. JavaScript Session Establishment Protocol), nie wymagającym serwera. Architektura WebRTC zakłada zestawianie bezpośrednich połączeń peer-to-peer pomiędzy pr więcej »

BADANIA ZAJĘTOŚCI MORSKIEGO PASMA VHF Z WYKORZYSTANIEM DETEKCJI CYKLOSTACJONARNOŚCI SYGNAŁU - DOI:10.15199/59.2017.6.49
Krzysztof Bronk Dominik Rutkowski Błażej Wereszko 
Wraz z rozwojem technologii wzrasta zapotrzebowanie na usługi transmisji danych. Użytkownicy oczekują dostępu do informacji w dowolnym miejscu i czasie. W pewnych obszarach - między innymi w zastosowaniach morskich - dostęp do informacji ma znaczenie kluczowe z punktu widzenia bezpieczeństwa. Podstawowym medium, umożliwiającym przesyłanie informacji w środowisku morskim, a w efekcie realizację założeń e-nawigacji, są fale radiowe. Wobec rosnącego zapotrzebowania na transmisję danych, przy ograniczonych zasobach częstotliwościowych, pojawia się potrzeba udoskonalenia i uelastycznienia metod dostępu do pasma częstotliwości oraz poprawy efektywności wykorzystania tychże zasobów. Jednym z rozwiązań jest idea radia kognitywnego (ang. Cognitive Radio - CR). Najważniejszą cechą CR jest dynamiczny dostęp do zasobów pasma częstotliwości. Kluczowe jest zatem bieżące pozyskiwanie informacji o nieużywanych pasmach częstotliwościowych. W radiokomunikacji morskiej, charakteryzującej się nieciągłą łącznością, najbardziej właściwym podejściem wydaje się być detekcja wolnych zasobów radiowych z użyciem metod wykrywania widma sygnałów (ang. spectrum sensing). W literaturze rozpatruje się różne metody detekcji transmisji [1], takie jak: detekcja energii (opisana w [3, 10]), filtracja dopasowana, analiza wartości własnych macierzy korelacji, czy detekcja cyklostacjonarności sygnału, która została zbadana w pracy [4]. 2. DETEKCJA CYKLOSTACJONARNOŚCI SYGNAŁU Metoda detekcji cyklostacjonarności polega na poszukiwaniu cech periodyczności sygnału. Użyteczny sygnał telekomunikacyjny charakteryzuje się na ogół okresowością, wynikającą z obecności zmodulowanych nośnych sinusoidalnych, harmonicznych ciągów rozpraszających, ciągów treningowych, preambuł, cyklicznych przedrostków itp. W rezultacie sygnał ten może być modelowany jako cyklostacjonarny, kiedy jego wartość średnia i funkcja autokorelacji są okresowe. Szum pozbawiony jest okresowości, a więcej »

BADANIE ANTENY Z FALĄ WYCIEKAJĄCĄ WYKONANEJ W TECHNOLOGII LTCC PRACUJĄCEJ W ZAKRESIE 125 GHZ - 135 GHZ - DOI:10.15199/59.2017.6.25
Przemysław Piasecki Yevhen Yashchyshyn 
Ciągły rozwój technologii związanych z wytwarzaniem podzespołów pracujących w zakresie częstotliwości sub-THz pozwala projektować coraz to efektywniejsze systemy radiokomunikacyjne i radarowe wykorzystujące szerokie pasmo częstotliwościowe. Jednym z kluczowych elementów każdego systemu radiowego jest układ antenowy, który w pierwszej kolejności decyduje m. in. o jakości odbieranego sygnału lub w zależności od ,,inteligencji" anteny, system potrafi wyeliminować interferencje z niepożądanych kierunków lub skierować wiązkę w odpowiedni sektor. Konwencjonalne metody umożliwiające skanowanie wiązką antenową opierają się na zastosowaniu przesuwników fazy, których koszty stanowią ponad 50% całego systemu antenowego. Biorąc pod uwagę częstotliwości ponad 100 GHz, zaprojektowanie odpowiedniego przesuwnika fazy dla danego systemu nie sprowadza się do rozwiązania prostego problemu projektowego. W celu spełnienia funkcjonalności skanowania wiązką antenową poszukuje się innych, tańszych rozwiązań, które mogą być wykorzystane w zakresie fal milimetrowych. Alternatywnym rozwiązaniem w odniesieniu do fazowanych szyków wykorzystujących przesuwniki fazy są anteny z falą bieżącą, które umożliwiają odchylanie wiązki jedynie poprzez zmianę częstotliwości pracy anteny. W zależności od systemu właściwość ta może być pożądana lub nie. W pracy [1] przedstawiono projekt struktury anteny z falą wyciekającą wykorzystującą technologię spiekania ceramiki w niskiej temperaturze, tzw. LTCC (ang. Low Temperature Co-fired Ceramic) [2]. Jest to jedna z obiecujących i rozwijanych od lat technologii umożliwiająca wykonywanie struktur wielowarstwowych. Rozwijana jest zazwyc więcej »

BADANIE MOŻLIWOŚCI PRZESTRAJANIA CZĘSTOTLIWOŚCI REZONANSOWEJ ANTENY NA PASMO 60 GHZ ZA POMOCĄ MEMS - DOI:10.15199/59.2017.6.27
Patryk Hoffmann Yevhen Yashchyshyn 
W artykule przedstawiono wyniki badania możliwości przestrajania częstotliwości rezonansowej anteny mikropaskowej za pomocą MEMS. Mikroukłady mechaniczne, które zostały zasymulowane w badaniach, działają na zasadzie przełączników, które pod wpływem przyłożonej różnicy potencjałów naprzemiennie zwierają i rozwierają układ w miejscu swojego umocowania. Technologia przełączników elektromechanicznych znana jest już od prawie 40 lat[1], jednak dopiero niedawno możliwe było zmniejszenie omawianych układów do skali "mikro", która umożliwiałaby wykorzystanie ich w strukturach, których wielkości mierzone są w milimetrach. Z punktu widzenia opisywanego projektu główną zaletą wykorzystania MEMS jest możliwość wytworzenia ich w jednym procesie technologicznym z całą resztą anteny. To jednak niesie za sobą ograniczenia: wymagane jest wykorzystanie wysokorezystywnego krzemu, którego parametry niekorzystnie wpływają na właściwości promieniowania anteny [2]. W projekcie zastosowane zostały pewne rozwiązania mające zminimalizować ten efekt. Pasmo 60GHz, w którym ma pracować antena, jest szczególnie interesujące z dwóch powodów: po pierwsze, jest to bardzo szeroki, nielicencjonowany zakres częstotliwości (w Europie 57-66GHz), który może być wykorzystany do transmisji z prędkościami nieosiągalnymi na innych, nielicencjonowanych pasmach. Istnieje standard 802.11ad zakładający pracę na omawianych częstotliwościach, który pozwala na osiągnięcie prędkości do 7Gbit/s[3] (przy użyciu całego zakresu 57-66 GHz). Po drugie, na częstotliwości 60GHz tłumienie atmosferyczne jest więcej »

BADANIE WPŁYWU LUDZI NA KANAŁ TRANSMISYJNY W SIECIACH RADIOWYCH DZIAŁAJĄCYCH W POBLIŻU CIAŁA CZŁOWIEKA - DOI:10.15199/59.2017.6.67
Paweł Oleksy Łukasz Januszkiewicz 
Projektowanie sieci radiowych pracujących w pobliżu ciała człowieka (ang. BAN: Body Area Networks) wymaga uwzględnienia oddziaływania ciała człowieka na fale radiowe. Typowo uwzględniane jest oddziaływanie ciała na anteny umieszczone na ciele lub wewnątrz ciała (implanty) ponieważ dla sygnałów o częstotliwości rzędu kilku GHz ciało człowieka wprowadza silne tłumienie, przez co znacząco wpływa na dopasowanie impedancyjne anteny oraz jej charakterystykę promieniowania [7-8]. Ponadto, efekty te silnie zależą od orientacji przestrzennej ciała człowieka w odniesieniu do anteny nadawczej i odbiorczej [1], jego budowy fizycznej, odległości anteny odbiorczej od ciała oraz miejsca usytuowania jej na ciele. Są to zagadnienia szczególnie istotne w sieciach typu on-body czyli takich których elementy ułożone są na ciele oraz sieciach intra-body zawierających również implanty. Wpływ ciała człowieka na kanał radiowy jest niepomijalny również w przypadku sieci typu off-body, czyli takich które obejmują transceiver umieszczony na ciele komunikujący się z urządzeniem umieszczonym w pewnej odległości od ciała. W takim systemie wprowadzenie dodatkowej przeszkody, jaką mogą być ludzie, pomiędzy nadajnikiem a odbiornikiem może spowodować wzrost tłumienia kanału od kilku do nawet kilkunastu dB [3]. Zjawisko to jest trudne do badania szczególnie w przypadku propagacji wielodrogowej, ponieważ stłumiony może być sygnał docierający drogą bezpośrednią z nadajnika jak i również sygnały odbite np. od ścian pomieszczenia. Z problemem tłumienia w kanale transmisyjnym wprowadzanym przez ciało człowieka muszą zmierzyć się również projektanci radiowych systemów lokalizacji. Jest to o tyle ważne, że radiowe systemy lokalizacji bazują nierzadko (np. w metodach zwanych fingerprinting) na referencyjnym rozkładzie natężenia pola elektrycznego stanowiącym mapę do której próbuje się dopasować położenie terminala mobilnego na podstawie odczytu poziomu odebranej więcej »

BEZPIECZEŃSTWO PRZEBYWANIA W POLU PROMIENIOWANYM PRZEZ ANTENY WYBRANYCH WOJSKOWYCH SYSTEMÓW ŁĄCZNOŚCI - DOI:10.15199/59.2017.6.14
Rafał Przesmycki Marian Wnuk 
W dobie nowoczesnych działań wojennych koniecznym stało się opracowanie systemów łączności, spełniających wymagania obsługi łączności na wszystkich szczeblach działań. Wobec rosnących wymagań dotyczących odporności łączności na różne czynniki, ważnym tematem stało się bezpieczeństwo osób obsługujących dany system łączności. Niniejsza publikacja podejmuje się analizy zagadnień związanych z bezpieczeństwem przebywania w pobliżu anten wojskowych systemów łączności. Należy zadać sobie pytanie, czy jest ono bezpieczne? 2. WPŁYW POLA EM W.CZ. NA ŻYWE KOMÓRKI W wojskowych systemach telekomunikacyjnych w pododdziałach wykorzystuje się zakres fal radiowych od 1,5 MHz do 88 MHz (radiostacje pola walki). Radiostacje pola walki wykorzystywane w pododdziałach wojsk lądowych pracują w sieciach i kierunkach radiowych, w dwóch zakresach częstotliwości:  w zakresie 1,5 MHz - 30 MHz, radiostacje krótkofalowe,  w zakresie 30 - 88 MHz, radiostacje ultrakrótkofalowe. Radiostacje ultrakrótkofalowe przeznaczone są do zapewnienia łączności na małe i średnie odległości (do 35 km). Zasięg łączności środków UKF w całości pokrywa zapotrzebowanie na przekazywanie informacji na szczeblu pododdziału. Moc promieniowania tych radiostacji to odpowiednio 0,5/5/10 W. Jednocześnie radiostacje te, jak widać na rys. 1, są używane w bezpośrednim kontakcie z obsługą. Rys. 1. Widok radiostacji na plecach obsługi Obawy budzi przede wszystkim potencjalna szkodliwość pola wytworzonego przez antenę radiostacji umieszczoną tuż przy ciele obsługi. Nie są to obawy pozbawione racjonalnych podstaw ponieważ aktualny stan wiedzy oddziaływania energii PEM na organizmy żywe upoważnia do stwierdzenia że energia elektromagnetyczna w każdej ilości działa na organizm człowieka. Działanie to jest nieszkodliwe dopóki jego skutki mieszczą się w granicach wyznaczonych przez zdolności adaptacyjne, kompensacyjne i regeneracyjne, ale może być szkodliwe po przekrocze więcej »

BEZPIECZEŃSTWO W SFEDERALIZOWANYCH SIECIACH INTERNETU RZECZY NA PRZYKŁADZIE PROJEKTU H2020 symbIoTe - DOI:10.15199/59.2017.6.102
Michał Pilc Gerard Frankowski Mikołaj Dobski Norbert Meyer 
Bezpieczeństwo danych i sieci stanowiło wyzwanie od samego początku powstania sieci sensorowych i wywodzących się z nich sieci Internetu Rzeczy (ang. Internet of Things, IoT). Duża liczba urządzeń o małej mocy, zróżnicowanie protokołów komunikacyjnych i technologii, a także brak dbałości o łatanie luk na poziomie sprzętu i systemu operacyjnego powodują, że Internet Rzeczy jest dziś jednym z najczęstszych źródeł włamań do sieci. Sensory i urządzenia sterujące (np. ilością ciepła, napięciem elektrycznym) przejmowane są przez intruzów, którzy wykorzystują je do przeprowadzania ataków typu DDoS (ang. Distributed Denial-of-Service), polegających na wysyłaniu przez intruzów tak dużej liczby pakietów do sieci teleinformatycznej, że sieć nie nadąża z obsługą żądań. Uniemożliwia to jej użytkownikom korzystanie z zasobów i usług tej sieci. W ostatnich latach powstaje potrzeba zacieśnienia współpracy między platformami Internetu Rzeczy mającymi różne pochodzenie i zastosowania, a tym samym - opartymi na innych technologiach. Dla przykładu, sieci telemetryczne służące do zdalnego przesyłania danych pomiarowych (np. temperatura, ciśnienie atmosferyczne) oparte są przeważnie na protokole MQTT (ang. Message Queuing Telemetry Transport), jednakże sieci zdalnego sterowania oświetleniem i przesyłem prądu (ang. smart grid) wykorzystują często dedykowane protokoły z rodziny OSGP (ang. Open Smart Grid Protocols) [1], [2]. Jednocześnie cała gama niewspółpracujących ze sobą protokołów komunikacyjnych jak CoAP (ang. Constrained Application Protocol), XMPP (ang. Extensible Messaging and Presence Protocol), LWM2M (ang. Lightweight Machine-to-Machine) używana jest do zdalnego przesyłania komunikatów w sieciach IoT takich jak Inteligentny Dom, Inteligentny Szpital itp. do zdalnego sterowania urządzeniami i odczytywania danych. Wyzwania cywilizacyjne XXI wieku w obszarze ochrony zdrowia i zapewnienia bezpieczeństwa publicznego, oszczędności czasu i więcej »

BIOSENSOR JAKO ELEMENT SIECI SENSOROWEJ DO POMIARU ZMĘCZENIA U GÓRNIKÓW - DOI:10.15199/59.2017.6.90
Michał Kowal Sławomir Kubal Piotr Piotrowski Kamil Staniec 
Postęp technologiczny z ostatnich lat dotyczy również metod pomiary parametrów życiowych. Pomiaru tętna dokonuje się już od wielu lat stosując różne metody [1]-[3] w tym również bezkontaktowe [4]-[7], jednakże pomiar saturacji zaczął być implementowany w urządzeniach od kilku lat. Typowa metoda pomiaru saturacji polega na prześwietleniu tkanki, przy czym do pomiaru stosuje się zwykle klipsy na palec lub na płatek ucha. Niestety metoda ta jest raczej stacjonarna i nie nadaje się dla osób wykonujących fizyczną pracę. Do takiego zastosowanie konieczne jest użycie metody odbiciowej, którą używa zaprezentowany w artykule sensor. Sensor taki nie ogranicza ruchów osoby pracującej, może być również użyty na innej części ciała niż palec czy ucho. Zaprezentowane rozwiązanie bazujące na układzie MAX30101 charakteryzuje się wieloma możliwościami konfiguracyjnymi. Aby uzyskać zgodność wyników pomiaru autorzy przeprowadzili szereg badań, których wyniki oraz zalecenia dla innych konstruktorów przedstawiono w poniższym referacie. 2. BIOSENSOR Testowa wersja sensora została uruchomiona na platformie Waspmote firmy Libellium. Platforma została wyposażona w mikrokontroler ATmega1281 pracujący z częstotliwością 14,7456 MHz, pamięci SRAM: 8 kB, EEPROM: 4 kB oraz FLASH 128 kB. Podstawowym czujnikiem biosensora jest pulsoskymetr, czyli czujnik mierzący tętno i nasycenie krwi tlenem. Pulsoksymetry są czujnikami nieinwazyjnymi, zakładanymi jako klips na palec lub płatek ucha. Takie umiejscowienie czujnika wynika z dużego ukrwienia tych miejsc, co jest warunkiem koniecznym do prawidłowego pomiaru saturacji krwi tlenem. Zasada działania takiego czujnika polega na prześwietlaniu wspomnianych tkanek światłem czerwonym oraz podczerwonym, a następnie pomiarze stosunku pochłaniania światła w zależności od długości fali na fotodiodzie. Elementy oświetlający i pomiarowy umieszczane są bądź naprzeciw siebie z tkanką pomiędzy lub obok po tej samej stroni więcej »

DAB+ WIĘCEJ NIŻ RADIO - DOI:10.15199/59.2017.6.93
Mirosław Ostrowski 
Czy w świecie cyfrowym radio może pozostać analogowe? Na ten temat toczą się ożywione dyskusje, podczas gdy Norwegia w dniu 11 stycznia 2017 roku rozpoczęła proces wyłączania analogowego radia FM, który zakończy się w grudniu tego roku. Radio cyfrowe DAB+ poszerzyło tam znacząco ofertę programów ogólnokrajowych do 30. Radio FM dostarczało ich tylko 5. W Szwajcarii proces wyłączenia emisji analogowych potrwa od roku 2020 do 2024. Wyłączenie starego systemu emisji poważnie rozważane jest też w Wielkiej Brytanii i Danii. 2. DLACZEGO RADIO FM NIE PRZETRWA? 2.1. Problemy i zagrożenia związane z analogową raJdesiot fwonieiąle rpoozwsieowdócwzą, FdlMa których radio analogowe FM nie może się dalej rozwijać. Wśród najważniejszych są:  zatłoczone pasmo częstotliwości używane przez radiofonię FM, co nie tylko uniemożliwia poszerzenie oferty programowej dla słuchaczy, ale też nie daje szansy na uzupełnienie pokrycia istniejących programów (szczątkowe pokrycie programów Polskiego Radia PR24 i Dwójki),  rosnące zakłócenia pociągające za sobą kurczenie się zasięgów stacji,  nieefektywność widmowa  nieefektywność ekonomiczna  nieekologiczność emisji analogowych 2.2. Rekomendacja Europejskiej Unii Nadawców Europejska Unia Nadawców (EBU - European Broadcasting Union) w roku 2013 wydała rekomendację EBU-R138 Digital Radio Distribution in Europe, w której zauważywszy, że radio odgrywa wciąż istotną rolę na kontynencie europejskim, jest odbierane przez większość Europejczyków w domu, w pracy i w drodze, oraz że naziemna radiofonia rozsiewcza jest jedyną darmową i opłacalną metodą prawdziwego mobilnego odbioru, szczególnie w samochodach, rekomenduje między innymi:  natychmiastowe wdrożenie cyfrowej radiofonii DAB+ w paśmie III VHF z usługami danych dodatkowych  wdrożenie zaawansowanych funkcjonalności takich jak teksty, obrazy i przewodniki po programach, aby zachować atrakcyjność więcej »

DEMONSTRATOR TECHNOLOGII DYNAMICZNEGO ZARZĄDZANIA WIDMEM W SIECI RADIA KOGNITYWNEGO - DOI:10.15199/59.2017.6.70
Piotr Gajewski Jerzy Łopatka Marek Suchański 
Obserwowany wzrost ilości danych transmitowanych zarówno w komercyjnych, jak i niekomercyjnych (w tym wojskowych) sieciach bezprzewodowych wymaga stosowania coraz efektywniejszych metod współdzielenia widma częstotliwości z dynamicznie zmiennym dostępem do zasobów widmowych (DSA). Termin "Dynamiczne Zarządzanie Widmem" obejmuje szeroki zakres problemów jak przydział częstotliwości. Alokacja kanałów, koegzystencja sieci i węzłów radiowych, dostęp do widma zarówno w licencjonowanych, jak i otwartych zakresach częstotliwości [1]. Kluczową właściwością systemów DZW jest zdolność do zapewnienia lepszego dostępu do widma powiązana z jakością transmisji, odpornością na zakłócenia, itp. W raporcie grupy roboczej NATO IST-077/RTG035 [2] stwierdzono, że bardziej efektywne wykorzystanie dostępnych zasobów widmowych wymaga opracowania nowych metod zarządzania widmem włącznie z zastosowaniem technologii radia kognitywnego (CR). W ramach zrealizowanego projektu "Zaawansowane metody dynamicznego zarządzania widmem opracowano demonstratory dwóch podstawowych metod DZW dla wojskowych sieci MANET: koordynowanego, dynamicznego dostępu do widma (CDSA), w którym wykorzystywany jest broker częstotliwości (BC) jako podstawowy komponent wielopoziomowego, scentralizowanego zarządzania widmem oraz oportunistycznego dostępu do widma (OSA) z rozproszonym zarządzaniem dostępem w grupowanej sieci węzłów kognitywnych. W referacie przedstawiono podstawowe założenia projektu. Opisano rozwiązania obydwu metod DZW oraz zamieszczono wybrane wyniki badań eksperymentalnych. Zarówno przedstawione rozwiązania, jak i wyniki są unikalne, niemające odpowiedników w dość obszernej literaturze opisującej demonstratory techniki CR, np. [3], [4], [5]. 2. CELE I ZAŁOŻENIA PROJEKTU Formułując zakres projektu postawiono 4 następujące cele, które zrealizowano: - opracowanie koncepcji obydwu metod DZW zawierającej rozwiązania układowe i programowe, - zaimplementowanie więcej »

DETEKCJA HYBRYDOWA JAKO METODA ZWIĘKSZAJĄCA WYDAJNOŚĆ SENSINGU - DOI:10.15199/59.2017.6.54
Marek Suchański Mateusz Kustra Krzysztof Kosmowski Józef Pawelec 
Systemy radia kognitywnego [3] [5] stanowią skuteczne rozwiązanie problemu niedoboru widma, głównie dzięki funkcji gwarantującej dynamiczny dostęp (ang. Dynamic Spectrum Access - DSA) do pasm chwilowo niewykorzystywanych przez użytkowników licencjonowanych (ang. primary user - PU). Skanowanie widma (sensing) jest jednym z podstawowych zadań radia kognitywnego, które musi zostać przeprowadzone aby możliwa była komunikacja. Sensing polega na monitorowaniu szerokich fragmentów widma radiowego i wykrywaniu kanałów niezajętych przez użytkownika pierwotnego (licencjonowanego), które mogą zostać wykorzystane przez użytkownika wtórnego (ang. secondary user - SU). Haykin działanie to definiuje jako "wyszukiwanie nieużytkowanych częstotliwości widma poprzez skanowanie prowadzone lokalnie przez odbiorniki stanowiące elementy sieci" [4]. Termin "nieużytkowane częstotliwości" oznacza te podzakresy widma radiowego, które są w określonym czasie i miejscu nie w pełni wykorzystywane. Do zagadnienia sensingu odnoszono się w sposób teoretyczny już wielokrotnie. Zaproponowano wiele technik skanowania widma dla systemów radia kognitywnego, a ilość publikacji dotyczących tej tematyki jest liczona w tysiące. Wszystkie te metody można sklasyfikować w kilku podstawowych kategoriach w zależności od wykorzystywanych cech sygnału. Najczęściej rozważanymi metodami wykorzystywanymi w procesie rozpoznawania widma są detekcja energii, detekcja cech cyklostacjonarnych, detekcja z wykorzystaniem filtra dopasowanego oraz detekcja falkowa [11]. Ze względu na niską złożoność obliczeniową oraz nieskomplikowaną implementację najczęściej stosowaną metodą w procesie skanowania widma jest detekcja energii (ED) [10]. Jest to "pół ślepa" (ang. semi blind) metoda, która niestety wymaga wiedzy na temat widmowej gęstości mocy szumu, przez co jest wrażliwa na niepewność jej estymacji [2] [9]. Z tego względu w literaturze przedmiotu analizuje się również przydatność więcej »

EKSPOZYCJA NA PROMIENIOWANIE ELEKTROMAGNETYCZNE SYSTEMÓW DOSTĘPU BEZPRZEWODOWEGO DO INTERNETU W ZRÓŻNICOWANYCH WARUNKACH UŻYTKOWANIA - DOI:10.15199/59.2017.6.16
Patryk Zradziński Jolanta Karpowicz Krzysztof Gryz Wiesław Leszko 
Zalety technologii bezprzewodowego dostępu do Internetu, jak np. LTE (ang. Long Term Evolution) czy Wi-Fi (ang. Wireless Fidelity), spowodowały ich dynamiczny rozwój. Obecnie są one powszechnie wykorzystywane zarówno przez osoby indywidualne, jak i w wielu działach gospodarki, w tym w placówkach bibliotecznych, oświatowych, handlowych czy biurowych. Osoby przebywające w takich placówkach (pracownicy, klienci) są eksponowani na promieniowanie elektromagnetyczne z zakresu mikrofal pochodzące z anten nadawczych (tzw. stacji bazowych), a także różnego typu terminali tych systemów. Źródłem tego promieniowania są anteny nadawcze o dookólnej lub sektorowej (kierunkowej) charakterystyce promieniowania. Ich lokalizacja dostosowywana jest do warunków propagacji fali elektromagnetycznej i wymagań użytkowych. Anteny publicznych systemów LTE umieszczane są najczęściej na dachach lub elewacjach budynków lub wolnostojących masztach czy kominach. Z kolei anteny systemów Wi-Fi przeznaczone do łączności lokalnej (np. w obrębie jednego lub kilku pomieszczeń) umieszczane są najczęściej przy sufitach lub ścianach pomieszczeń lub na meblach. Promieniowanie elektromagnetyczne z zakresu mikrofal oddziałuje zarówno na ciało człowieka, jak i urządzenia elektroniczne, w tym elektroniczne implanty medyczne (ang. Active Implantable Medical Devices - AIMD). O ile niebezpieczne skutki termicznego oddziaływania silnego promieniowania elektromagnetycznego na ciało człowieka zostały rozpoznane i opisane, o tyle skutki długoterminowego oddziaływania słabego promieniowania są w dalszym ciągu przedmiotem nierozstrzygniętej debaty naukowej. Wiele badań naukowych wskazuje na negatywne skutki zdrowotne, występujące ze zwiększoną częstotliwością wśród osób długotrwale narażonych na mikrofalowe promieniowanie elektromagnetyczne, w tym u długoletnich użytkowników urządzeń łączności bezprzewodowej, takich jak telefony komórkowe [1, 2]. Grupa robocza Międzynarodow więcej »

ENERGOOSZCZĘDNA KOOPERACYJNA DETEKCJA ZAJĘTOŚCI ZASOBÓW WIDMOWYCH Z MIESZANĄ MIARĄ GRUPOWANIA WĘZŁÓW - DOI:10.15199/59.2017.6.72
Krzysztof Cichoń Adrian Kliks Hanna Bogucka 
W obliczu nieustannie rosnącego zapotrzebowania na coraz wyższe przepustowości transmisji bezprzewodowej wiodącym wyzwaniem stało się poszukiwanie zasobów częstotliwościowych. Jednakże, wiele pasm częstotliwości cechuje niewysokie wykorzystanie, co pokazały wykonane pomiary [5]. Ta obserwacja stała się inspiracją do powstania idei znanej pod nazwą radia kognitywnego. Umożliwia ona dostęp do licencjonowanych zasobów częstotliwościowych pod warunkiem, że są one niezajęte przez użytkownika do tego uprawnionego. Dlatego kluczowym aspektem radia kognitywnego jest detekcja zajętości zasobów widmowych z zapewnieniem wiarygodnej oceny zajętości zasobów widmowych. Dowiedziono, że pojedynczy użytkownik nie zawsze zapewni wymagany poziom detekcji, dlatego konieczna 1 Praca powstała w ramach projektu "EcoNets" finansowanego ze środków Narodowego Centrum Nauki przyznanych na podstawie decyzji numer DEC-2013/11/B/ST7/01168. jest współpraca węzłów i wymiana informacji w kooperacyjnej detekcji [7]. Im większa bowiem liczba węzłów uczestniczy w kooperacyjnej detekcji, tym wyższa jakość detekcji zasobów widmowych. Dlatego gdy liczba węzłów uczestniczących w kooperacyjnej detekcji wzrasta, jakość detekcji się zwiększa. Można zatem sformułować następujący kompromis: wzrost liczby węzłów w kooperacyjnej detekcji implikuje wzrost jakości detekcji, ale także wzrost ilości danych koniecznych do przesłania. Aby zmniejszyć obciążenie systemu z powodu liczby wymienionych wiadomości, korzystnie jest przydzielić węzły do grup, tzw. klastrów. Węzły przydzielone do danej grupy, przesyłają informacje detekcji do nadrzędnego węzła (tzw. cluster head), ten natomiast przesyła informację zbiorczą do centrum zbiorczego całej sieci. Dzięki temu liczba oraz długość łączy raportowania zostaje zmniejszona i tym samym koszt energetyczny zostaje ograniczony. W procesie grupowania węzłów są istotne dwa wyzwania: i) jakie kryterium ma stanowić istotę grupowania, więcej »

ESTYMACJA GŁĘBI DLA SYSTEMÓW WIELOWIDOKOWYCH - DOI:10.15199/59.2017.6.75
Dawid Mieloch Adrian Dziembowski Adam Grzelka 
Nowe zastosowania trójwymiarowej reprezentacji zarejestrowanych scen, takie jak telewizja swobodnego punktu widzenia [1][12], czy systemy rzeczywistości wirtualnej, pokazują znaczenie i konieczność dalszego rozwoju metod tworzenia treści trójwymiarowej. Jedną z najpowszechniejszych reprezentacji takich treści jest użycie widoków zarejestrowanych przez kamery wraz z odpowiadającymi im mapami głębi. Mapy głębi, najczęściej reprezentowane jako obrazy w skali szarości, przedstawiają odległość punktów zarejestrowanej sceny od płaszczyzny przetwornika kamery. W tym artykule rozważana będzie estymacja głębi na podstawie widoków zarejestrowanych przez kamery systemu wielokamerowego. Mapy głębi mogą być estymowane dla każdej kamery niezależnie, korzystając jedynie z sąsiednich widoków (lewego i prawego). Taka metoda nie zapewnia jednak odpowiedniej spójności przestrzennej, ponieważ głębia pewnych obiektów może być wtedy różna dla sąsiednich widoków. Różnice w głębi w różnych widokach są jedną z przyczyn błędnie tworzonych widoków wirtualnych, stanowiących podstawę swobodnej nawigacji dookoła sceny. Tworzenie map głębi podczas estymacji wielowidokowej, wykorzystującej wszystkie zarejestrowane widoki, zapewnia spójność głębi obiektów w sąsiednich widokach. Jednakże, taka estymacja jest bardzo czasochłonna, szczególnie jeżeli kamery systemu są swobodnie rozstawione dookoła sceny i nie przyjęto żadnych założeń dotyczących ich położenia i liczby. Dla przykładu, metoda [14] pozwala na tworzenie map głębi w czasie rzeczywistym. Niestety, konieczne jest jednak zastosowanie czterech kamer o równoległych osiach optycznych i ściśle określonym rozstawieniu, co zmniejsza liczbę ewentualnych zastosowań takiego systemu. Czas estymacji jest również ściśle powiązany z rozdzielczością zarejestrowanych widoków. Możliwe jest tworzenie map głębi dla zdecymowanych obrazów wejściowych, co znacząco skraca czas estymacji, a następnie zwiększenie mapy g więcej »

EWOLUCYJNE PODEJŚCIE DO AUTOMATYCZNEGO ROZMIESZCZANIA PUNKTÓW DOSTĘPOWYCH WLAN DO JEDNOCZESNEJ POPRAWY ZASIĘGU I DOKŁADNOŚCI LOKALIZACJI - DOI:10.15199/59.2017.6.33
Paolo Di Barba Sławomir Hausman Piotr Korbel Krzysztof Piwowarczyk 
Nowadays, Wireless Local Area Networks (WLANs) are pervasive and are more and more frequently used not only for internet access but also for indoor location services. A number of indoor positioning approaches and systems have been developed, which mostly use received signal strength indicator (RSSI) or time difference of arrival (TDoA) methods. Although many problems related to the development of wireless indoor positioning systems have been addressed and already reported in the literature [2, 3, 4, 8, 9, 11], their accuracy is restricted not only by the complexity of radio wave propagation in multipath environments but also by the fundamental limitations of multilateration techniques which follow from the relative position (geometry) of terminals and beacons (in the considered case WLAN access points). Preferably, (small) errors in the measured RSSI/TDoA data should not result in large positioning errors. This problem has been extensively addressed e.g. in [5, 6] and is illustrated in Fig. 1. AP1 AP2 AP1 AP2 Fig. 1. Simple illustration of the dependence of the positioning error on transmitter-receiver geometry: good geometry (left), poor geometry (right) In this paper we focus on the development of a novel evolution-inspired improvement method which simultaneously takes into account both power coverage and positioning accuracy for the deployment of WLAN access points in indoor environment. The remainder of the paper is organized as follows: Section 2 describes the deployment method, Section 3 contains outcomes of the proposed method and Section 4 summarizes the results. 2. METHOD In this research we aim at simultaneous improvement of coverage and indoor positioning accuracy with the number of nodes (access points/ beacons) as small as possible. In the following subsections we will define an objective function and the improvement (optimization) method involving evolutionary computing. 2.1. Criteria for the Placement więcej »

FALKOWE METODY ESTYMACJI ZMIAN UKRYTYCH W DIAGNOSTYCE OBRAZOWEJ WCZESNEGO UDARU MÓZGU - DOI:10.15199/59.2017.6.44
Grzegorz Ostrek 
Diagnostyka obrazowa jest ważnym elementem w rozpoznaniu zachorowania na udar mózgu. W każdym przypadku podejrzenia tej choroby powinno być wykonane badanie tomografii komputerowej (TK). Około 80% przypadków zachorowań związanych jest z zaburzeniami krążenia powodowanymi niedokrwieniem, natomiast pozostałe mają przyczyny krwotoczne. Istotnym problemem towarzyszącym powszechnemu wykorzystaniu stosunkowo taniej i łatwo dostępnej TK jest niska czułość rozpoznania rozwijającego się niedokrwienia w ciągu pierwszych 6 godzin od zachorowania. Ponadto jedyny skuteczny lek może być podawany do 4,5 godziny od zachorowania. Przykłady wybranych warstw z 3 badań TK przedstawione są na Rys. 1. Pierwszy obraz pochodzi od pacjenta bez podejrzenia udaru. Środkowe zdjęcie przedstawia wczesny udar niedokrwienny prawej półkuli (lewa strona) wykonany w czasie <4 godzin od zachorowania. Obraz po prawej przedstawia tego samego pacjenta w 5 dobie po zachorowaniu z wyraźnie widocznym ogniskiem zawałowym (ciemniejszy obszar, który pojawił się po lewej stronie). Stworzenie metod wspierających radiologów na etapie wczesnego udaru, gdy objawy są bardzo słabo widoczne lub niewidoczne było przedmiotem prowadzonych badań. Wczesne zmiany charakteryzują się spadkiem jasności obszarów dotkniętych niedokrwieniem o zaledwie 1-2 poziomy względem tła w obecności często silniejszych szumów i artefaktów obrazowych. Pacjent A (bez udaru) Pacjent B (udar wczesny) Pacjent B (udar dokonany) Rys. 1 Przykłady obrazów TK. Uaktualnione w ostatnich latach definicje różnych typów udarów podkreślają konieczność udowodnienia obecności świeżego naczyniopochodnego uszkodzenia ośrodkowego układu nerwowego (mózgu, siatkówki lub rdzenia kręgowego) w rozpoznaniu. Procedury współcześnie stosowane na wyspecjalizowanych oddziałach udarowych (takie jak tomografia rezonansu magnetycznego, badania perfuzyjne) powinny pozwolić na potwierdzenie obecności świeżych zmian chorobowyc więcej »

FILTRACJA DANYCH TDOA W FILTRZE UKF W SYSTEMIE MULTILATERACYJNYM - DOI:10.15199/59.2017.6.79
Paweł T. Kosz Jarosław Sadowski Jacek Stefański 
W obecnych czasach pojęcie szybkiego transportu jest jednoznacznie kojarzone z żeglugą powietrzną. Od kilkunastu lat globalny ruch lotniczy rośnie w tempie wykładniczym powodując, że przestrzeń powietrzna staje się coraz bardziej zatłoczona, a ustalenie płynnego przelotu samolotu jest coraz bardziej utrudnione. W związku z tym, tradycyjne techniki dozorowania wykorzystujące radary pierwotne i wtórne są zastępowane nowymi koncepcjami opartymi na cyfrowych łączach transmisji danych oraz łączach satelitarnych. Przykładem jednej z takich koncepcji jest multilateracyjny system radiolokalizacyjny - MLAT (Multilateration). Głównymi zaletami tego systemu jest możliwość wyznaczania położenia samolotów w trudno dostępnych dla wiązki radiolokacyjnej obszarach, np. w rejonach górskich, oraz zwiększona dokładność wyznaczania położenia na małych obszarach. Jako, że głównym czynnikiem zapewniającym płynność w ruchu lotniczym jest dokładne określenie położenia poruszającego się obiektu oraz biorąc pod uwagę rosnącą popularność stosowania systemów MLAT, istnieje potrzeba badań nad metodami zwiększającymi dokładność estymacji położenia statków powietrznych w tych systemach. W związku z powyższym, niniejszy artykuł stanowi propozycję implementacji jednej z takich metod dla systemów MLAT. 2. MULTILATERACYJNY SYSTEM RADIOLOKALIZACYJNY Technika multilateracji lub inaczej lokalizacji hiperbolicznej - MLAT, to metoda polegająca na wyznaczeniu różnic czasów przebycia sygnałów emitowanych z danego statku powietrznego do stacji referencyjnych o znanych współrzędnych położenia - TDOA (Time Difference of Arrival). Przy założeniu, że obiekt ruchomy jest stacją nadawczą oraz przy dostępności sygnału z co najmniej czterech stacji referencyjnych, staje się możliwe określenie w przestrzeni punktu przecięcia trzech wynikowych hiperbol utworzonych na podstawie pomiarów TDOA. Różnice czasów nadejścia emitowanych sygnałów wynikają z różnic odległości pomię więcej »

FRACTAL GEOMETRY APPLIED TO DESIGN OF COMMUNICATION SYSTEMS ANTENNAS - DOI:10.15199/59.2017.6.10
Wojciech J. Krzysztofik Thanh Nghia Cao 
Nowadays, science and technology develops rapidly, what allow multiple communication systems to be integrated on the common platform in such devices as cellular system handset, PDA, tablets etc. In fact, there are many communication systems, like GSM, UMTS, LTE, WLAN, Bluetooth, GPS (see Table 1), which sited on one device could help mobile user. The devices, used often in mobile applications, should operate in multiband frequencies, and simultaneously be small, compact as well as be possible light. Tab. 1. Data of Modern Communication Systems Systems Frequency, GHz Bandwidth, MHz GSM 0.89-0.96 35 1.71-1.88 170 GPS L2: 1.2276 11 L1: 1.57542 15.345 L5: 1.17645 12.5 UMTS 0.9 / 2.1 60 LTE 2.10 5, 10, 15, 20 1.90 1.4, 3,5,10,15,20 WLAN 2.43 20 5.0 22 TV Satellite C-band 4 36 6 36 Bluetooth 2.4 1 Such systems required special design of receiving/ transmitting antennas. Nowadays there many methods to design it have used. In most cases they are realized in the microstrip-line technology, integrated on common board with the active devices. Since second half of 20th age the fractal geometry is considered as potential support in the design of such antenna [1], [2], [3]. In the paper the fractal geometry applied to antenna design is introduced. In following chapters the fractal geometry, parameters and design procedures are shortly described. Next some useful fractal shapes are used into antennas design for use in different mobile communication systems. 2. FRACTAL GEOMETRY Fractal geometry is described by B. Mandelbrot [4] as a rough or fragmented geometric shape that can be separated into parts which approximate the whole geometry but in a reduced size. The fractal geometry is used a lot in life [5], due to fact if it could better describe the complex objects than conventional Euclidean one, which is limited to the lines, points, sheets and volumes. The study of fractal geometry in combination with the electromagnetic więcej »

GENERACJA KĄTA ODBIORU SYGNAŁU W BADANIACH SYMULACYJNYCH 3D - DOI:10.15199/59.2017.6.96
Cezary Ziółkowski Jan M. Kelner 
Przestrzenny rozkład fali docierającej do odbiornika decyduje o właściwościach korelacyjnych i widmowych odbieranych sygnałów. Wykorzystanie geometrycznych modeli kanałów zapewnia odwzorowanie tych właściwości. Struktury przestrzenne tych modeli definiowane są przez założony kształt obszarów występowania rozproszeń oraz przestrzenny rozkład elementów rozpraszających na danym obszarze. Dwuwymiarowe modele geometryczne (2D) reprezentują największą grupę modeli, które występują w literaturze. Zastosowanie modeli z tej grupy ma uzasadnienie, gdy rozwartość charakterystyk promieniowania anten nadawczych i odbiorczych w płaszczyźnie elewacji nie przekracza kilkunastu stopni. W celu pełniejszego odwzorowania zjawisk, które towarzyszą propagacji fal, rozwijane są modele trójwymiarowe (3D). Pomimo dość dużej liczby publikacji brak jest jednoznacznej weryfikacji tych modeli względem wyników empirycznych. Zasadnicza trudność wykorzystania modeli geometrycznych w badaniach symulacyjnych związana jest z problemem zdefiniowania wielkości i położenia obszarów rozproszeń w odniesieniu do właściwości propagacyjnych badanego środowiska. W praktyce, typ środowiska propagacji definiowany jest na podstawie rozkładu mocy odbieranego sygnału w dziedzinie czasu. Wykorzystywane w badaniach symulacyjnych standardowe modele kanałów takie jak COST207, WINNER, SCM [1] stanowią przykład takiego sposobu definiowania scenariuszy propagacyjnych. Oznacza to, że w badaniach symulacyjnych, wykorzystywana struktura geometryczna modelu powinna być związana z profilem opóźnienia mocy (PDP) lub rozproszeniem opóźnienia moc (PDS), które opisują rozkład mocy w dziedzinie czasu. Występowanie lokalnych ekstremów w PDP lub PDS jest podstawą dla wieloeliptycznego modelu 2D, dla którego estymator gęstości prawdopodobieństwa (PDF) kąta i statystyczny model kątowego rozkładu mocy (PAS) noszą nazwy DBMM [5] i DLCM [4], odpowiednio. W tym przypadku, położenie elementów więcej »

Internet rzeczy w medycynie i dla podniesienia komfortu życia - DOI:10.15199/59.2017.6.1
Sławomir Hausman Piotr Korbel 
Rozwój elektroniki przynosi między innymi nowe rozwiązania czujników (np. biosensory), miniaturyzację wymiarów i masy oraz wzrastającą energooszczędność układów scalonych, technologię obwodów elastycznych i tekstronikę - połączenie elektroniki z technologiami tekstylnymi, przyrządy do pozyskiwania energii zasilania z otoczenia, mikroukłady elektromechaniczne. Towarzyszy temu rozwój technik łączności bezprzewodowej, a w tym metod kodowania kanałowego, modulacji i wielodostępu dla różnych kategorii urządzeń użytkownika, technik antenowych, np. typu massive MIMO, opanowywanie zakresów coraz większych częstotliwości, rozwój technik zabezpieczania danych. Te osiągnięcia prawdopodobnie umożliwią realizację systemów istotnie poprawiających komfort naszego życia oraz skok jakościowy w medycynie zapobiegawczej, co wiąże się z potrzebą monitorowania parametrów fizjologicznych i aktywności człowieka oraz wykrywaniem zaburzonych stanów ogólnoustrojowych lub lokalnych. Tymczasem, chociaż liczba terminali w sieciach komórkowych znacznie już przekroczyła 7 miliardów, czyli jest większa niż populacja naszej planety, to oferta tego rodzaju urządzeń i usług medycznych jest obecnie jeszcze bardzo skromna. Dlatego jedną z prawdopodobnych tendencji rozwojowych będzie wprowadzanie zminiaturyzowanych urządzeń, które po wyposażeniu w różnego rodzaju czujniki (a w przyszłości także aktuatory, np. w implantach dawkujących leki) będą monitorować stan organizmu i przekazywać niektóre dane do medycznych systemów ekspertowych [1]. Innym ważnym obszarem zastosowań może być zwiększanie bezpieczeństwa ludzi pracujących w niebezpiecznych warunkach. Podobnie można oczekiwać poprawy bezpieczeństwa ludzi chorych, w zaawansowanym wieku czy niepełnosprawnych. Dotyczy to szczególnie osób, które wsparte odpowiednimi środkami technicznymi mogłyby nadal prowadzić samodzielny tryb PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XC  WIADOMOŚCI TELEKOMUNIKACYJNE  więcej »

KOEGZYSTENCJA SYSTEMÓW LTE I WiFiW PAŚMIE NIELICENCJONOWANYM - DOI:10.15199/59.2017.6.56
Michał Wągrowski Marek Sikora Jacek Wszołek Janusz Gozdecki Wiesław Ludwin Konrad Kucharzyk 
Nieustannie rosnące zapotrzebowanie użytkowników na coraz to większe przepustowości współczesnych systemów bezprzewodowych wymuszają konieczność rozszerzania wykorzystywanych przez nie zakresów o kolejne pasma częstotliwości. Ważnym kierunkiem rozwoju systemów czwartej generacji stało się rozszerzanie ich pasma pracy o zakresy nielicencjonowane LTEU/ LAA (LTE-Unlicensed/License Assisted Access), dotychczas zdominowane przez lokalne sieci bezprzewodowe WiFi. Doprowadziło to do pojawienia się szeregu nowych problemów na styku sieci WLAN, zarządzanych w sposób rozproszony (DCF i EDCA) i systemów LTE, opartych na scentralizowanym zarządzaniu pasmem (eNodeB, polityka ICIC). Ze względu na istotę rywalizacyjnego i rezerwacyjnego dostępu do zasobów radiowych, w tej konfrontacji sieci WiFi wydają się stać na z góry przegranej pozycji. Problem współistnienia systemów LTE i WiFi doczekał się licznych analiz literaturowych [4][5], powstały również praktyczne rozwiązania rozszerzające funkcjonalność algorytmów przydziału zasobów radiowych w stacjach bazowych LTE o techniki redukujące negatywny wpływ LTE na pracę bezprzewodowych sieci lokalnych WLAN. Argumentem przemawiającym za wprowadzeniem do systemów LTE transmisji w paśmie nielicencjonowanym może być ich większa wydajność i lepsze wykorzystanie pasma niż ma to miejsce w sieciach WiFi [8]. Z drugiej jednak strony nasuwa się pytanie, czy wykorzystanie na zbyt dużą skalę przez operatorów komórkowych zakresów częstotliwości pasm ISM (Industrial, Scientific, Medical), nie doprowadzi w efekcie do zmiany ich pierwotnego, niekomercyjnego charakteru, na stricte komercyjny. W niniejszym artykule zaprezentowano możliwości wykorzystania metody agregacji kanałów do rozszerzenia zasobów transmisyjnych systemu LTE o kanały radiowe pozyskane z pasm nielicencjonowanych. Omówiono techniki, mające na celu zapewnić sprawiedliwy dostęp do nielicencjonowanych częstotliwości zarówno systemom LTE, ja więcej »

KONCEPCJA ROZPROSZONEGO SYSTEMU JEDNOCZĘSTOTLIWOŚCIOWEJ SIECI DAB+ - DOI:10.15199/59.2017.6.84
Michał Kowal Sławomir Kubal Piotr Piotrowski Kamil Staniec 
Cyfryzacja technologii radiowych obejmuje coraz to nowe systemy, więc dotarła również do systemów rozgłoszeniowych. Najpierw cyfrowa telewizja DVB-T zastąpiła analogowego odpowiednika. Obecnie podobny proces wkracza do radiofonii, przy czym jest on wolniejszy niż w przypadku telewizji. Z punktu widzenia użytkownika, cyfryzacja radiofonii otwiera przed nim możliwość skorzystania z szeregu nowych usług, niedostępnych w analogowym odpowiedniku. Kolejną ważną właściwością radiofonii cyfrowej jest możliwość multipleksacji sygnałów od wielu nadawców w jeden kanał tzw. multipleks. Nowe usługi oferowane przez radiofonię cyfrową to:  Dynamic Label Segment (DLS) - długie wiadomości tekstowe;  Slide Show (SLS) - wiadomości graficzne;  Emergency Warning System (EWS) - rozsyłanie informacji o niebezpieczeństwach i zagrożeniach;  Electronic Program Guide (EPG) - przewodnik programowy (szczegółowa informacja o programie);  Broadcast Website (BWS) - rozsyłanie stron www (dla odbiorników z ekranem LCD);  Journaline - e-wiadomości;  Traffic Message Channel/Traffic and Travel Information (TMC/TTI) - lokalne, regionalne i narodowe informacji o natężeniu ruchu na drogach;  Surround Sound over DAB+ - transmisja w kilu kanałach dla uzyskania bardzo dobrej jakości głosu. Dla radiofonii cyfrowej istnieje wiele standardów. W Europie najważniejszy standard to DAB+ (Digital Audio Broadcasting +), opisany w rozdziale 3. Pozostałe standardy to między innymi:  IBOC / HD Radio (oficjalnie znany jako NRSC-5). Opracowany w USA, współdzieli kanału z analogową transmisją FM;  ISDB-TSB. Opracowany w Japonii. Pracuje w paśmie 470-770 MHz, szerokość kanału 6 MHz (oferuje również usługi telewizji oraz transmisji danych);  DRM (Digital Radio Mondiale). Standard ETSI, początkowo pracujący na częstotliwościach mniejszych niż 30 MHz (obecnie poniżej 300 MHz). Standard umożl więcej »

KONWOLUCYJNE SIECI GŁĘBOKIE W PROGRAMIE NAUCZANIA TECHNIK MULTIMEDIALNYCH W ZAKŁADZIE TELEWIZJI POLITECHNIKI WARSZAWSKIEJ - DOI:10.15199/59.2017.6.43
Przemysław Buczkowski Władysław Skarbek 
Techniki multimedialne od ponad 20 lat stały się nieodzownym elementem aplikacji projektowanych w systemach wytwarzania, gromadzenia i przesyłu sygnałów cyfrowych. To co leży w obszarze zainteresowań Instytutu Radioelektroniki i Technik Multimedialnych, z punktu widzenia badań naukowych i edukacji można scharakteryzować skrótem CREAMS, analizowanym w kontekście możliwych aplikacji tworzonych między innymi na telewizyjnych platformach cyfrowych: 1. Compression: kompresja obrazu i dźwięku. 2. Recognition: rozpoznawanie obiektów multimedialnych (MM) na potrzeby HCI (human computer interfaces). 3. Embedding: zanurzanie obiektów MM w innych obiektach MM na potrzeby podpisu wodnego i tajnej komunikacji. 4. Annotation: indeksowanie obiektów MM w celu ich inteligentnego wyszukiwania. 5. Modelling 3D: modelowanie 3D na bieżąco, na potrzeby HCI. 6. Security: szyfrowanie i podpis cyfrowy obiektu MM na potrzeby bezpiecznej archiwizacji i komunikacji. Zauważmy, że tak sformułowane zagadnienia nie odnoszą się wprost do aktualnej technologii i narzędzi, które są lub potencjalnie mogą być wykorzystywane do ich rozwiązywania Niektóre z zagadnień CREAMS takie jak kompresja, czy bezpieczeństwo danych były i są przedmiotem intensywnych prac normalizacyjnych i doczekały się szeregu popularnych norm technicznych. Wszędzie tam, gdzie potrzebna jest wygodna wymiana informacji multimedialnej powstały efektywne formaty danych. Na większe zainteresowanie gremiów normalizacyjnych oczekują znaki wodne i steganografia cyfrowa. Inne zagadnienia jak rozpoznawanie, indeksowania (adnotacja) i modelowanie 3D na potrzeby interfejsu człowiekmaszyna, pomimo licznych prób (np. MPEG-7) są mniej podatne na zabiegi normalizacyjne. Z roku na rok rośnie znacząco liczba doniesień naukowych o kolejnych sukcesach technik konwolucyjnych sieci neuronowych (CNN) w zagadnieniach CREAMS. Proponowane rozwiązania "neuronowe" coraz częściej przewyższają najlepsze dotą więcej »

KOOPERACYJNA TRANSMISJA DANYCH W SIECIACH BEZPRZEWODOWYCH - DOI:10.15199/59.2017.6.23
Andrzej Marczak 
Obecnie użytkownicy chcący korzystać z usług mobilnej transmisji danych mogą wykorzystywać technologię systemów komórkowych (np. LTE, UMTS, EDGE i GPRS) oraz systemów transmisji danych o niewielkich zasięgach (np. Bluetooth, WIFI, UWB). Dzięki temu możliwa jest transmisja kooperacyjna z wykorzystaniem różnych systemów transmisji danych lub z wykorzystaniem terminali jako stacji przekaźnikowych w celu ograniczenia zużycia energii przez terminale ruchome, czego skutkiem jest dłuższy czas pracy urządzeń. Transmisja kooperacyjna umożliwia również zwiększenie pojemności, szybkości transmisji i wydajności w sieciach bezprzewodowych. Dodatkowo może przyczynić się do zwiększenia zasięgu zarówno sieci komórkowych, jak i sieci ad hoc [1]. W wyniku tego zainteresowanie transmisją w sieciach wykorzystujących kooperacje różnych systemów transmisji danych oraz transmisje przekaźnikowe stale rośnie. W przypadku kooperacyjnej transmisji bezprzewodowej możemy mieć do czynienia z siecią komórkową lub siecią ad hoc, w których użytkownicy terminali ruchomych mogą poprawić jakość usług mierzoną np. bitową, lub blokową stopą błędów poprzez kooperację z innymi użytkownikami. W takim przypadku każdy terminal ruchomy może być zarówno źródłem transmisji jak i przekaźnikiem dla transmisji innego użytkownika. Na rysunku 1 oba terminale ruchome (T1 i T2) są jednocześnie źródłami transmitowanych danych jak i przekaźnikami. T1 T2 Rys. 1. W przypadku transmisji kooperacyjnej każdy terminal może być źródłem danych i przekaźnikiem Każdy terminal będąc źródłem danych przesyła je do przekaźnika, który następnie przekazuje odebrane dane do węzła docelowego, którym może być terminal lub stacja bazowa. 2. RODZAJE TRANSMISJI KOOPERACYJNEJ Do realizacji transmisji kooperacyjnej najczęściej wykorzystuje się trzy metody: wzmocnij i przekaż (ang. amplify and forward), dekoduj i przekaż (ang. decode and forward) oraz kodowaną metodę transmisji kooperacyjnej [ więcej »

ŁĄCZE RADIOWE W TEKSTRONICZNYM SYSTEMIE UMOŻLIWIAJĄCYM LOKALIZACJĘ LUDZI W POMIESZCZENIACH Z UŻYCIEM CZUJNIKÓW INERCYJNYCH - DOI:10.15199/59.2017.6.68
Łukasz Januszkiewicz Jarosław Kawecki 
Systemy umożliwiające lokalizację osób we wnętrzach budynków są obecnie bardzo intensywnie rozwijane. Dzięki postępującej miniaturyzacji akcelerometrów i żyroskopów oraz rosnącej dokładności czujników tego rodzaju istnieje możliwość wykorzystania ich do śledzenia przemieszczania się ludzi w pomieszczeniach. Systemy tego typu nie wymagają instalowania dodatkowych nadajników radiowych, oraz zbierania danych charakteryzujących istniejące źródła sygnału radiowego, jak to jest w przypadku systemów wykorzystujących tzw. "Beecony" lub sieci bezprzewodowe WiFi [1-3]. Mimo ich ograniczonej dokładności, w pewnych zastosowaniach, takich jak działania ratownicze w nieznanym obiekcie, systemy inercyjne mogą okazać się łatwiejsze w wykorzystaniu. Przedstawiony w artykule system wykorzystuje miniaturowe czujniki inercyjne oraz moduł transmisyjny Zigbee, które zostały zintegrowane z odzieżą (jest to tzw. system tekstroniczny). Umożliwiają one pomiar przyspieszeń liniowych i kątowych oraz transmisje danych pomiarowych do smartfona w celu obliczenia przemieszczenia użytkownika oraz prezentacji jego położenia. Ze względu na to, że konieczne było zastosowanie miniaturowych źródeł zasilania oraz ograniczenie poboru prądu przeprowadzono analizę tłumienności łącza pomiędzy modułem radiowym umieszczonym na koszulce i smartfonem. 2. TEKSTRONICZNY SYSTEM LOKALIZUJĄCY LUDZI Opracowany system lokalizacyjny, zaprezentowany na rysunku 1, składa się z koszulki tekstylnej z naszytymi modułami elektronicznymi oraz smartfona. Koszulka zawiera moduł z akcelerometrami i żyroskopami, procesor do akwizycji danych oraz moduł Bluetooth Low Energy i baterię. Ponieważ moduły są bezpośrednio naszyte na koszulkę to zdecydowano się na zastosowanie miniaturowej baterii zasilającej, która w minimalnym stopniu ogranicza swobodę ruchów użytkownika. Z tego powodu konieczne było wykorzystanie możliwie jak najmniej złożonego obliczeniowo algorytmu w celu uzyskania oszc więcej »

MECHANIZMY WYKRYWANIA ATAKÓW NA PROTOKÓŁ ROUTINGU RPL W BEZPRZEWODOWYCH SIECIACH SENSOROWYCH - DOI:10.15199/59.2017.6.92
Jarosław KRYGIER Paweł WOLIŃSKI 
Duża popularność usług bazujących na technice IP (Internet Protocol), a także nowe wymagania w zakresie zdalnego monitorowania stanu obiektów, sterowania oraz komunikacji między maszynami, przyczyniły się do rozwoju tak zwanego Internetu Rzeczy (IoT - Internet of Things). Spośród wielu technik dedykowanych dla IoT, duże znaczenie mają techniki pozwalające na tworzenie i wykorzystanie sieci sensorów i efektorów. Jednym z najpopularniejszych rozwiązań dedykowanych dla bezprzewodowych sieci sensorowych jest standard IEEE 802.15.4, specyfikujący zbiór mechanizmów pozwalających na transfer danych między innymi w paśmie 2400- 2483.5 MHz, z szybkością do 250 kb/s. Znaczne ograniczenia tego standardu w zakresie maksymalnych jednostek transmisyjnych (MTU = 81B), ograniczenia samych sensorów dotyczące mocy obliczeniowej procesorów, rozmiaru dostępnej pamięci oraz zasobów energetycznych, w konformacji z wymaganiami transferu strumieni pakietów IP w wersji 6 (IPv6), szczególnie w aspekcie zastosowań w IoT, doprowadziły do opracowania standardu 6LoWPAN (IPv6-based Low Power Personal Area Network) [3], pozwalającego na kompresję nagłówków, fragmentację pakietów oraz przekazywanie fragmentów w sieci sensorowej. Z uwagi na niewielkie zasięgi radiowe węzłów takich sieci, istnieje często potrzeba realizacji transmisji wieloskokowej. Do organizacji routingu w sieci 6LoWPAN dedykowany jest protokół RPL (The Routing Protocol for Low power and lossy network) [6]. Należy on do grupy protokołów proaktywnych. Dzięki okresowo rozsyłanym jednostkom danych, konstruowane jest drzewo routingu, stanowiące acykliczny graf skierowany DAG (Directed Acyclic Graph). Każdemu węzłowi w drzewie DAG przyporządkowany jest stopień węzła (rank), który wymusza jego odpowiednie ulokowanie w strukturze drzewa. Korzeniem drzewa jest węzeł o największym stopniu. Jest on też najczęściej bramą do sieci zewnętrznej (spoza sieci sensorów). Protokół RPL pozwala na budowę więcej »

METODA ZWIĘKSZENIA DOKŁADNOŚCI ESTYMACJI POŁOŻENIA OSÓB W HYBRYDOWYM SYSTEMIE LOKALIZACYJNYM ZE ZREDUKOWANĄ LICZBĄ WĘZŁÓW REFERENCYJNYCH - DOI:10.15199/59.2017.6.81
Piotr Rajchowski Jacek Stefański Jarosław Sadowski 
W obecnych czasach radiolokalizacja wewnątrzbudynkowa, bazująca na radiowych pomiarach odległości, jest przedmiotem zainteresowania wielu instytucji publicznych i podmiotów gospodarczych. Rozwój sieci BAN (Body Area Network) oraz standardu 5G wymusza opracowanie sposobu niwelowania wpływu utrudnionej propagacji sygnałów radiowych na dokładność lokalizowania poruszających się osób w środowiskach wewnątrzbudynkowych. W literaturze spotykane są hybrydowe systemy lokalizacyjne, łączące algorytmy nawigacji inercyjnej oraz radiolokalizacji w celu zapewnienia dokładności długookresowej oraz stabilności wyznaczanego na płaszczyźnie położenia poruszającej się osoby. Niestety wymagają one rozmieszczenia na obszarze ich działania co najmniej trzech węzłów referencyjnych, aby możliwe było zastosowanie znanych algorytmów radiolokalizacyjnych. W niniejszym referacie zaproponowano rozwiązanie, umożliwiające zwiększenie dokładności estymacji położenia osoby z użyciem algorytmu nawigacji inercyjnej w hybrydowym systemie lokalizacyjnym przy wykorzystaniu radiowych pomiarów odległości do mniej niż trzech węzłów referencyjnych. Warto nadmienić, że pojęcie nawigacji inercyjnej rozumiane jest jako metoda wyznaczania estymaty położenia osoby, bazując na dokonywanych w trakcie ruchu pomiarach przyspieszeń liniowych i prędkości kątowych, w odróżnieniu od definicji spotykanej w literaturze uwzględniającej np. kontrolowanie ruchu tej osoby [5, 7, 8, 10]. 2. NOWA METODA INTEGRACJI DANYCH POZYZYJNYCH W HYBRYDOWYM SYSTEMIE LOKALIZACYJNYM Jedną z częściej stosowanych metod zwiększenia dokładności estymacji położenia w hybrydowym systemie lokalizacyjnym jest zastosowanie filtru Kalmana do wyznaczania estymat położenia na podstawie wyników działania niezależnych metod lokalizacyjnych, w tym radiolokalizacyjnych, która dla przypadku dwuwymiarowego wymaga realizacji pomiarów odległości do trzech węzłów referencyjnych. W niniejszym rozdziale omówiono ro więcej »

METODY OCENY JAKOŚCI ŁĄCZA WIFI NA POTRZEBY SIECI ŁĄCZNOŚCI BEZPRZEWODOWEJ NA MORZU - DOI:10.15199/59.2017.6.18
Krzysztof Bronk Adam Lipka Rafał Niski Błażej Wereszko Kacper Wereszko Krzysztof Żurek 
Jednym z głównych zadań projektu netBaltic1 jest budowa heterogenicznej sieci teleinformatycznej na morzu, która będzie w stanie w sposób automatyczny i przezroczysty dla użytkownika analizować stan dostępnych łączy bezprzewodowych i dokonywać przełączenia na to łącze, które w danej chwili będzie najbardziej korzystne z punktu widzenia aktualnych warunków w kanale radiowym, czy też wymagań użytkownika. Jest oczywiste, że w celu zbudowania takiej sieci niezbędna jest ocena możliwości (zasięgi/przepływności) poszczególnych systemów bezprzewodowych w specyficznych warunkach morskich, a także opracowanie sposobu oceny jakości danego mechanizmu transmisji, która to ocena wpływałaby bezpośrednio na wynik działania algorytmu decydującego o wyborze łącza. W roku 2016 podczas konferencji KKRRiT w Krakowie zaprezentowano referat, w którym omówiono wyniki pomiarów zasięgowo/jakościowych systemów komórkowych na morzu [1]; pomiary te dotyczyły tzw. strefy A projektu netBaltic, w której statki komunikują się z wykorzystaniem infrastruktury lądowej. Obecnie - 1 Internet na Bałtyku - realizacja wielosystemowej, samoorganizującej się szerokopasmowej sieci teleinformatycznej na morzu dla zwiększenia bezpieczeństwa żeglugi poprzez rozwój usług e-nawigacji (netBaltic), projekt współfinansowany ze środków NCBiR, umowa PBS3/A3/20/2015 z 29 maja 2015 r. Czas realizacji projektu: kwiecień 2015 - marzec 2018. w pierwszej części referatu - przedstawimy wyniki analogicznych pomiarów dla strefy B, w której statki nie mają łączności z brzegiem i jedynym mechanizmem komunikacji jest łączność statek-statek. Pomiary te dotyczyły sieci WiFi, jako istotnego mechanizmu takiej łączności. W drugiej części referatu scharakteryzujemy prace związane z dobraniem uniwersalnej miary jakości sieci WiFi na morzu, która pozwoli na ocenę jakości i stabilności tego łącza w warunkach morskich. 2. POMIARY ZASIĘGOWO/JAKOŚCIOWE SYSTEMÓW WIFI NA MORZU Pomiary sieci WiFi więcej »

Metody oceny wyników testów subiektywnych Quality of Experience - DOI:10.15199/59.2017.6.5
Lucjan Janowski 
Paradygmat jakości postrzeganej przez użytkowników jest istotny dla poprawnie działającej sieci telekomunikacyjnej. Użytkownicy końcowi ponoszą bowiem koszty dostarczanych usług. Jeżeli jakość ta jest niewystarczająca, rezygnują z danych usług. Doprowadza to do zmniejszenia dochodu operatorów. Jeszcze niedawno podstawowym wyznacznikiem jakości usług danej sieci była przepustowość. Obecnie można obserwować coraz więcej reklam, w których główny nacisk kładziony jest na inny aspekt - jakośći obsługi klienta lub jakość usług. Jakość usług jest problemem bardzo złożonym [1]. Można mówić o użyteczności lub jakości samych aplikacji. Aspektem telekomunikacyjnym jest jakość usług będąca funkcją dostępu do Internetu. Szczególnym przykładem takiej usługi jest przesyłanie wideo. Usługa ta jest bardzo silnie zależna od parametrów sieci telekomunikacyjnej, a ruch generowany przez usługi wideo już w roku 2016 [2] stanowił 60% ruchu przesyłanego w sieciach mobilnych. Wraz z dynamicznym rozwojem nowych dostawców usług, takich jak: Netflix, HBOGo czy polski VOD - zdaniem analityków CISCO - ilość ruchu generowanego przez serwisy wideo będzie nadal rosnąć. Dodatkowym czynnikiem wzrostu mogą okazać się systemy wirtualnej rzeczywistości, wymagające znacznie większej ilości danych niż tradycyjne systemy wideo [4]. Jakość usług wideo jest bardzo istotna ze względu na powszechność tej usługi oraz ze względu na dużą ilość ruchu, jaką ona generuje. Jednocześnie operatorzy nie mogą zapomnieć 186 PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XC  WIADOMOŚCI TELEKOMUNIKACYJNE  ROCZNIK LXXxVI  nr 6/2017 subiektywnych trzeba badać wiele sekwencji, a otrzymane modele jakości muszą uwzględniać samą treść. Przygotowanie testu subiektywnego polega na wybraniu kilku punktów, które posłużą do estymacji krzywej przedstawionej na rys. 2. Jeżeli próbkowanie wybrane dla danej sekwencji będzie poprawne, otrzyma się poprawną estymację krzywej (rys. więcej »

METODY REDUKCJI RZĘDU MODELU W ANALIZIE ELEKTROMAGNETYCZNEJ METODĄ ELEMENTÓW SKOŃCZONYCH - DOI:10.15199/59.2017.6.99
Grzegorz Fotyga 
Symulacje numeryczne są wykorzystywane w wielu gałęziach inżynierii jako podstawowe narzędzie do modelowania zjawisk fizycznych. W ostatnim trzydziestoleciu zyskały one szczególną popularność w analizie rozkładu pól elektromagnetycznych, czego dowodem jest powstanie dziedziny wiedzy określanej mianem elektrodynamiki obliczeniowej (ang. Computational Electromagnetics - CEM). Obecnie symulacje numeryczne są niezastąpionym narzędziem w procesie projektowania i optymalizacji urządzeń i systemów w paśmie mikrofal. Jedną z najczęściej stosowanych metod numerycznych w symulacjach elektrodynamice jest Metoda Elementów Skończonych (MES) [1-2]. Głównym założeniem MES jest podział analizowanego obszaru ciągłego na podobszary, zwane elementami skończonymi. W każdym z elementów rozwiązanie równania różniczkowego jest aproksymowane za pomocą funkcji bazowych, których współczynniki są znajdywane poprzez rozwiązanie odpowiednio skonstruowanego liniowego układu równań. Duża popularność MES w elektromagnetyzmie wynika z faktu, że pozwala ona na pełnofalowe rozwiązywanie równań Maxwella w dziedzinach obliczeniowych o złożonej geometrii, zawierających niejednorodne i anizotropowe materiały. Do wad MES można zaliczyć złożone sformułowanie matematyczne i złożony algorytm (szczególnie w przypadku wektorowej analizy w przestrzeni trójwymiarowej za pomocą funkcji bazowych wyższego rzędu) oraz konieczność rozwiązywania niejednokrotnie wielkich układów równań (sięgających setek milionów zmiennych). W tym przypadku analiza numeryczna może zabrać wiele godzin, a nawet dni, przy założeniu, że geometria i własności materiałowe analizowanego problemu nie zmieniają się. Jeżeli celem analizy jest optymalizacja parametrów geometrycznych lub materiałowych, symulacja może trwać jeszcze dłużej. Rys.1. Projekcja macierzy A na podprzestrzeń rozpiętą na wektorach bazy Q. Elementy niezerowe macierz A przedstawione są za pomocą czarnych punktów. DOI: 10.15199 więcej »

METODY WYZNACZANIA ROZKŁADU GĘSTOŚCI MOCY W STREFIE POLA BLISKIEGO W OTOCZENIU ANTEN PARABOLICZNYCH ŁĄCZY RADIOLINIOWYCH - DOI:10.15199/59.2017.6.12
Waldemar Karcz 
Istniejący stan prawny dotyczący bezpieczeństwa pracy oraz obowiązku zgłaszania instalacji emitujących pola elektromagnetyczne wymaga dokładnego oszacowania poziomu gęstości mocy emitowanej przez anteny paraboliczne radiolinii szczególnie w obszarze pola bliskiego. Znajomość rozkładu gęstości mocy emitowanej przez antenę paraboliczną w obszarze pola bliskiego ma również duże znaczenie przy planowaniu instalacji radiokomunikacyjnych w aspekcie zachowania kompatybilności elektromagnetycznej. Na podstawie art.122a ustawy Prawo ochrony środowiska prowadzący instalację oraz użytkownik urządzenia, w tym przypadku radiolinii, emitującej pole elektromagnetyczne, którego równoważna moc promieniowana wynosi nie mniej niż 15 W, są zobowiązani do zgłoszenia instalacji według zasad określonych w Rozporządzeniu Ministra Środowiska z dnia 2 lipca 2010 r. Do zgłoszenia należy dołączyć wyniki pomiarów PEM lub analizę na podstawie art. 3 ust. 21 Prawa ochrony środowiska. Anteny paraboliczne charakteryzuje duży zysk rzędu 30-50 dB, co prowadzi do przenoszenia energii w dobrze określonej wiązce z niewielką rozbieżnością kątową. Poziom gęstości mocy występujący w pobliżu anteny parabolicznej, w miejscach, gdzie ludzie lub pracownicy prowadzącego instalację mogą być narażeni, jest znacznie mniejszy od gęstości mocy w osi głównej. Taki stan rzeczy, potwierdzony znajomością rozkładu gęstości w strefie pola bliskiego, pozwoli przy zgłoszeniu instalacji przedstawić analizę rozkładu pola zamiast protokołu z pomiarów PEM wykonanych przez certyfikowane laboratoria. 2. METODY WYZNACZANIA ROZKŁADU PEM W POLU BLISKIM W OTOCZENIU ANTEN PARABOLICZNYCH 2.1. Metoda wyznaczania gęstości mocy w osi głównej anten parabolicznych w strefie pola bliskiego Gęstość mocy w obszarze pola bliskiego przedstawia rysunek nr 1. Rys. 1. Rozkład gęstości mocy w osi głównej anteny W pobliżu anteny pole elektromagnetyczne nie ma charakteru fali płaskiej. Obszar pola blisk więcej »

METODYKA ADAPTACJI ROZKŁADÓW KĄTA ODBIORU W BADANIACH SYMULACYJNYCH - DOI:10.15199/59.2017.6.98
Jan M. Kelner Cezary Ziółkowski 
Charakterystyczną cechą propagacji fal elektromagnetycznych w trenach wysokogórskich czy obszarach zurbanizowanych jest wielodrogowość. Zjawisko to wynika z występowania przeszkód terenowych na drodze propagacji fali. Oddziaływanie promieniowania elektromagnetycznego z przeszkodami skutkuje różnymi zjawiskami, takimi jak odbicie, załamanie, pochłanianie, dyfrakcja, interferencja lub rozproszenie fal. W literaturze tematu, zwłaszcza poświęconej pomiarom i modelowaniu kanałów bezprzewodowych, zjawiska te określane są często wspólnym pojęciem rozpraszania (scattering). W wyniku występowania tych zjawisk, propagacja fali ma charakter wielodrogowy. Oznacza to zatem, że odbierany sygnał jest superpozycją poszczególnych składowych docierających do odbiornika z różnych kierunków oraz z różnymi opóźnieniami. Możemy zatem mówić o dyspersji odbieranego sygnału w dziedzinie czasu i kąta odbioru. W przypadku opisu kanałowej dyspersji sygnału w dziedzinie czasu wykorzystywane są charakterystyki profilu opóźnienia mocy (power delay profile, PDP) lub widma opóźnienia mocy (power delay spectrum, PDS). Charakterystyki te są pochodnymi odpowiedzi impulsowej kanału (channel impulse response, CIR). Na podstawie charakterystyk PDP/PDS można wyznaczyć rozmycie opóźnienia (delay spread, DS). Parametr ten służy do określania wielkości dyspersji czasowej. Jednocześnie w tzw. standardowych modelach kanałów, np. COST 207 [4], SCM [1], DS stanowi podstawowy parametr, który jest wykorzystywany do klasyfikacji typów środowisk lub scenariuszy propagacyjnych. Do oceny dyspersji kątowej wykorzystuje się charakterystyki kątowego rozproszenia mocy (power angular spectrum, PAS), które mogą być wyznaczane w płaszczyźnie azymutu lub elewacji. Na potrzeby analizy teoretycznej lub symulacyjnej, charakterystyki te przekształcane są zwykle do postaci funkcji gęstości prawdopodobieństwa kąta nadejścia sygnału (probability density function of angle of arrival, PD więcej »

MOBILNA SIEĆ AD HOC PODZIELONA NA KLASTRY DO MONITOROWANIA OBSZARU POKRYTEGO PRZEZ GAZ CIĘŻKI - DOI:10.15199/59.2017.6.30
Mateusz Krzysztoń Andrzej Sikora 
Na całym świecie znaczna ilość substancji toksycznych jest transportowana i przechowywana. Pomimo rosnących standardów bezpieczeństwa nadal dochodzi do wypadków, w których do atmosfery wydostają się niebezpieczne substancje. Niektóre z nich tworzą chmury gazów cięższych od powietrza [4]. Przykładem niebezpiecznego gazu ciężkiego jest chlor, który może być używany również jako broń w czasie operacji militarnych bądź ataków terrorystycznych [1]. W momencie pojawienia się niebezpieczeństwa w postaci chmury gazu ciężkiego ekipa ratunkowa ma dwa główne cele: ewakuację zagrożonego obszaru oraz neutralizację chmury. Do zrealizowania obu celów istotna jest wiedza o pozycji, granicy i kierunku przemieszczania chmur. Pozwala ona na otoczenie chmury przez odpowiednie służby oraz wyznaczanie nie tylko obszarów, które powinny zostać ewakuowane w pierwszej kolejności, ale także bezpiecznych dróg ewakuacyjnych. W niniejszej pracy zaproponowane zostało użycie mobilnej sieci ad hoc (MANET) w celu wsparcia działań ekipy ratunkowej. Sieć MANET składa się z bezprzewodowych platform mobilnych (węzłów), które dynamicznie i autonomicznie samoorganizują się, tworząc sieć o tymczasowej topologii. Platforma ta może być wyposażona w punktowy czujnik gazu, odbiornik GPS oraz kartę radiową do komunikacji bezprzewodowej z innymi urządzeniami. Sieć adaptuje się do aktualnych warunków tworząc odpowiednią topologie. Istniejące w literaturze metody, które mogłyby zostać wykorzystane do wykrywania granicy obszaru pokrytego gazem ciężkim z użyciem sieci MANET posiadają liczne ograniczenia [3]. Węzły sieci wymieniają się wiedzą o środowisku oraz swoim położeniu przy pomocy komunikacji radiowej. Dany węzeł może komunikować się bezpośrednio z węzłami znajdującymi się w jego zasięgu lub z pozostałymi węzłami za pośrednictwem innych węzłów (komunikacja typu multi-hop). Z uwagi na ograniczony zasięg nadajników radiowych w celu utrzymania łączności w ramach sie więcej »

MODELOWANIE PRZYŚPIESZENIA POJAZDÓW DLA SYMULACJI PORUSZANIA SIĘ KONWOJU SAMOCHODÓW WYKORZYSTUJĄCYCH KOOPERACYJNY ADAPTACYJNY TEMPOMAT OPARTY NA STANDARDZIE IEEE 802.11P - DOI:10.15199/59.2017.6.47
Marcin Rodziewicz Adrian Langowski Paweł Sroka Michał Sybis Karolina Lenarska Krzysztof Wesołowski 
Stale rosnący ruch pojazdów na drogach spowodował wzrost zainteresowania metodami zwiększania bezpieczeństwa pojazdów i optymalizacji ruchu. Dzięki postępom w dziedzinie elektroniki i elektromechaniki pojazdów, autonomiczny ruch pojazdów na drogach stał się możliwy. Jedną z metod, zaproponowaną jako sposób na podniesienie przepustowości dróg oraz zwiększenie bezpieczeństwa kierowców, jest poruszanie się pojazdów w konwoju. Taki ruch polega na jeździe w grupie w postaci konwoju prowadzonego przez pojazd lidera. Badania pokazały, że poruszanie się w konwoju może zwiększyć przepustowość drogi z typowych 2200 pojazdów/godzinę do 4000 pojazdów/godzinę [1]. Aby to jednak było możliwe, odległości pomiędzy samochodami w konwoju powinny być małe, przy jednoczesnym zachowaniu wysokich prędkości typowych dla autostrad. W przypadku nieautonomicznego poruszania się pojazdów w kolumnie czynnikiem ograniczającym są możliwości kierowców. Ograniczenie to można zwalczyć stosując autonomiczne sterowanie pojazdów i wykorzystując wbudowane czujniki oraz komunikację bezprzewodową. Połączenie tych dwóch elementów pozwala na osiągnięcie znacznie lepszej precyzji i lepszych czasów reakcji niż byłoby to możliwe w przypadku działania kierowców. Autonomiczny ruch pojazdów w konwoju wymaga połączenia algorytmów sterowania silnikiem, przetwarzania danych z czujników oraz komunikacji bezprzewodowej. Pierwszym krokiem milowym w tworzeniu grup pojazdów na drogach było stworzenie adaptacyjnego tempomatu (ACC ang. Adaptive Cruise Control), którego zadaniem jest utrzymanie odpowiedniego odstępu (wyrażonego czasem) do samochodu poprzedzającego. Algorytm ACC oparty jest jedynie na pomiarach i danych z czujników znajdujących się w pojazdach i nie wykorzystuje komunikacji ani żadnej innej interakcji pomiędzy samochodami. Z tego powodu ACC nie pozwala na poruszanie się grup pojazdów z małymi odstępami między nimi. W związku z tym społeczność badaczy zwróciła s więcej »

MODELOWANIE ZANIKÓW W ŚRODOWISKU MORSKIEGO TERMINALU KONTENEROWEGO - DOI:10.15199/59.2017.6.50
Manuel M. Ferreira Sławomir J. Ambroziak Filipe D. Cardoso Jarosław Sadowski Luís M. Correia 
Modelowanie kanałów radiowych jest niezwykle ważną częścią procesu projektowania systemów radiokomunikacyjnych i ma kluczowe znaczenie dla ich niezawodności. Znanych jest wiele modeli kanałów, jednakże dotyczą one głównie typowych zewnętrznych i zamkniętych środowisk propagacyjnych. Zagadnienia modelowania kanału radiowego w środowiskach uprzemysłowionych, a w szczególności zewnętrznych są wciąż w niewystarczający sposób przebadane. Jak dotąd znanych jest kilka modeli propagacyjnych dla zamkniętych środowisk uprzemysłowionych, takich jak np. papiernie [1], chemiczne zakłady celulozowe i fabryki produkujące kable [2], kryte parkingi samochodowe [3], a także lotniska [4]. Z uwagi na brak modeli dla otwartych środowisk uprzemysłowionych, których przykładem jest terminal kontenerowy, regułą jest stosowanie w takich środowiskach wybranych znanych modeli propagacyjnych dla środowisk miejskich, po uprzednim ich dopasowaniu [5]. Jednakże dokładność tak dopasowanych modeli nie jest satysfakcjonująca, co wskazuje na potrzebę opracowywania nowych modeli dla nietypowych środowisk otwartych. Nie inaczej jest w przypadku terminalu kontenerowego, gdzie propagacja fal radiowych ma miejsce w obecności metalowych pofalowanych ścian, utworzonych przez kontenery poustawiane w stosy, których rozmieszczenie i wysokości są zmienne w czasie. Nie bez znaczenia są także zjawiska dyfrakcji i odbicia, powodowane przez ciągniki kontenerowe i dźwigi poruszające się po terenie terminalu. W literaturze przedmiotu można znaleźć wyniki kilku prac badawczych dotyczących rozważanego środowiska. W [6] autorzy proponują prosty model propagacyjny dla trzech częstotliwości: 433, 868 i 2400 MHz. Z kolei w [7] zaproponowano model propagacyjny dla szerszego zakresu częstotliwości, od 500 MHz do 4 GHz. Najbardziej złożone podejście w postaci wielowariantowego modelu propagacyjnego dla systemów ruchomych, pracujących na terenie terminalu kontenerowego, zaproponow więcej »

NAMIERZANIE WYBRANYCH ŹRÓDEŁ EMISJI RADIOWYCH Z WYKORZYSTANIEM BEZZAŁOGOWYCH PLATFORM LATAJĄCYCH - DOI:10.15199/59.2017.6.88
Jarosław Milewski Paweł Kaniewski Robert Matyszkiel Robert Urban 
Ostatnie lata, zarówno na rynku cywilnym jak i wojskowym, przyniosły dynamiczny wzrost zastosowania bezzałogowych platform latających (rozumianych jako rodzaj lekkiego statku powietrznego) w oficjalnej terminologii klasyfikowanych jako Bezzałogowe Statki Powietrzne (BSP - UAV) [1]. Popyt na tego typu urządzenia został wyzwolony rozwojem wielu technologii, które poszerzyły spektrum ich wykorzystania, począwszy od zastosowań prywatnych (głównie rozrywkowych), przez komercyjne (świadczenie usług), po militarne (działania rozpoznawcze, ratownicze, likwidacja celów). W przypadku dużego nasycenia przestrzeni powietrznej ww. obiektami, głównymi problemami są: brak systemów informujących o położeniu innych obiektów latających w tzw. niesegregowanej przestrzeni powietrznej oraz naruszenia chronionych obszarów przez nieautoryzowane platformy latające. Dodatkowo należy wymienić trudność w zapewnieniu kompatybilnej pracy w stosunku do istniejących systemów łączności radiowej, jak również w stosunku do innych systemów łączności UAS (system UAS obejmuje platformę latającą wraz z naziemnym elementem/stacją kontroli i dedykowanym systemem łączności). W pierwszej części artykułu przedstawiono rozwiązania stosowane w zakresie detekcji UAS. Główną uwagę skupiono na detekcji emisji radiowych i analizie systemów radiokomunikacyjnych wykorzystywanych na potrzeby cywilnych UAS. Omówiono aktualny stan wykorzystania zakresów częstotliwości do zapewnienia łączności przez te systemy. W dalszej części zaprezentowano projekt architektury systemu wykorzystującego bezzałogowe platformy latające do wykrywania, namierzania i wyznaczania lokalizacji źródeł wybranych emisji radiowych. 2. SPOSOBY DETEKCJI UAS Parametry kluczowe z punktu widzenia detekcji UAS to maksymalna i skuteczna odległość wykrycia intruza. Na ich wartość wpływają zarówno sposób detekcji i parametry techniczne wykorzystywanych detektorów, jak również środowisko, w którym prowadzone więcej »

NB IoT - NOWY WĄSKOPASMOWY STANDARD TELEFONII KOMÓRKOWEJ DLA INTERNETU RZECZY - DOI:10.15199/59.2017.6.24
Tomasz Kosiło Karol Radecki Jarosław Marski 
Internet rzeczy (IoT), idea powstała w 1999 r., znajduje coraz więcej zastosowań. Przewiduje się, że będzie on miał zasięg globalny i w 2021 r. liczba urządzeń tego typu wyniesie około 1,5 biliona [1]. Rozwiązania i zastosowania IoT są szeroko omawiane w literaturze [2], [3]. Istotnym elementem IoT jest odpowiednia sieć łączności, głównie bezprzewodowej. Obecnie istnieje wiele standardów transmisji w pasmach nielicencjonowanych (ISM) takich jak: LoRa, NWave, OnRamo, Platanus, SIGFOX, Telensa, Amber Wireless, głównie o zasięgu lokalnym [4]. Wydaje się jednak, że lepszym rozwiązaniem są sieci komórkowe z dodatkową usługą IoT realizowaną przez operatorów. Organizacja 3GPP, poczynając od E-UTRA Release 12, wprowadziła przydatny dla IoT standard LTE Cat. 0, uwzględniający specyfikę transmisji danych z prędkością do 1 Mb/s pomiędzy urządzeniami (M2M - machine to machine communications) z uproszczonymi protokołami transmisji, co umożliwia obniżenie kosztu terminali. Kolejna wersja E-UTRA, Release 13 [5], przyjęta w czerwcu 2016 r. wprowadza standardy eMTC (LTE Cat. M1) i NB IoT - NarrowBand for the Internet of Things (LTE Cat. NB1) oraz EC-GSM-IoT [6]. W tym artykule opisano parametry standardu NB IoT. Krajowi operatorzy sieci komórkowych przewidują wkrótce uruchomienie usługi NB IoT. Wymaga to jednak modyfikacji stacji bazowych. 2. PARAMETRY SYSTEMU NB IoT 2.1. Tryby pracy System NB IoT jest zupełnie nowym standardem. Nie realizuje on większości funkcji szerokopasmowych terminali LTE. Wykorzystuje jednak funkcjonalności LTE, organizację widma i protokoły transmisyjne. Dzięki temu jest kompatybilny z LTE i do transmisji NB IoT mogą służyć zmodyfikowane stacje bazowe LTE. Możliwa jest także transmisja na poszczególnych nośnych systemu GSM. Transmisja w obu kierunkach jest wąskopasmowa i zajmuje pasmo o szerokości 180 kHz, tzn. jeden blok PRB LTE lub jeden kanał GSM o szerokości 200 kHz. System służy do przesyłania małej iloś więcej »

NIEORTOGONALNA METODA DOSTĘPU WIELOKROTNEGO DLA SYSTEMÓW NASTĘPNYCH GENERACJI - DOI:10.15199/59.2017.6.9
Małgorzata Gajewska 
W systemach komórkowych 2G i 3G stosuje się metody dostępu wielokrotnego z podziałem częstotliwości FDMA (ang. Frequency Division Multiple Access) i czasu TDMA (ang. Time Division Multiple Access) oraz z podziałem kodowym CDMA (ang. Code Division Multiple Access). Natomiast w systemach LTE i LTE -Advanced (4G) są wykorzystywane obecnie dwie metody dostępu: OFDMA (ang. Orthogonal Frequency Division Multiple Access) oraz SC-FDMA (ang. Single Carrier FDMA). Wszystkie te metody należą do grupy ortogonalnych metod objętych jedną, wspólną nazwą OMA (ang. Orthogonal Multiple Aceess) [5, 6, 8]. Są to metody ortogonalne, ponieważ łączy je wspólna cecha polegająca na tym, że sygnały wielu użytkowników są przesyłane niezależnie od siebie z zachowaniem wzajemnej ortogonalności. W przypadku systemów z bezpośrednim rozpraszaniem widma DS CDMA (ang. Direct Sequence CDMA) sygnały wielu użytkowników nie są w pełni niezależnie przesyłane, ponieważ pseudoprzypadkowe ciągi rozpraszające widmo nie są faktycznie ciągami ortogonalnymi, a jedynie prawie ortogonalnymi. Dlatego sklasyfikowanie tej metody jako OMA jest w pewnym stopniu dyskusyjne. W systemach następnych generacji, w tym w systemach 5G, przewiduje się zastosowanie zupełnie nowej nieortogonalnej metody dostępu wielokrotnego do zasobów fizycznych, zwanej NOMA (ang. Non-Orthogonal Multiple Access) [5, 6, 8, 9] i to właśnie tej metodzie jest poświęcony niniejszy artykuł. Ponieważ problem jest nowy, to nie ma zbyt wielu prac na ten temat. Klasyfikację ogólną technik dostępu NOMA można znaleźć w [6], gdzie wyróżniono, w ogólności metodę NOMA z multipleksacją w dziedzinie mocy oraz w dziedzinie kodowej. Budzi tu pewne wątpliwości czy taka klasyfikacja jest w pełni rozdzielna, ale jak dotąd nie istnieje lepsze źródło. Podobnie jak w systemach DS CDMA wykorzystuje się tu dla każdego użytkownika całe dostępne zasoby fizyczne, czasowe i/lub częstotliwościowe. 2. METODA NOMA W ŁĄCZU W DÓŁ Na więcej »

NOWA ADAPTACYJNA METODA ALOKACJI STRUMIENI DANYCH OPARTA NA ESTYMACIE PARAMETRÓW KANAŁU RADIOWEGO W HETEROGENICZNEJ SIECI WBAN - DOI:10.15199/59.2017.6.65
Krzysztof Cwalina Sławomir J. Ambroziak Jacek Stefański 
Sieci WBAN (Wireless Body Area Network) zyskują aktualnie coraz większą popularność i stały się istotnym kierunkiem rozwoju nowoczesnych sieci radiokomunikacyjnych 5G. Technologia WBAN znajduje szerokie zastosowanie w telemetrii m.in. w monitorowaniu parametrów zdrowotnych, lokalizacji, opieki nad osobami starszymi, autoryzacji czy w aplikacjach multimedialnych. W bieżącym stanie techniki występują homogeniczne oraz heterogeniczne sieci WBAN, rozróżnialne przez liczbę zastosowanych interfejsów radiowych. W istniejących heterogenicznych sieciach złożonych z węzłów posiadających wiele równolegle pracujących interfejsów radiowych należy alokować generowane strumienie danych do wysłania przez dostępne łącza radiowe. Zwykle stosuje się statyczny przydział tychże strumieni z niezmiennymi parametrami warstwy fizycznej w trakcie pracy węzła. Zapewnia to zmniejszenie redundancji danych sterujących wymienianych pomiędzy węzłami w sieci oraz uproszczenie protokołu MAC (Medium Access Control). Pomimo tych zalet wiadomym jest, że efektywność wykorzystania dostępnych zasobów czasowo-częstotliwościowych można zwiększyć poprzez np. dynamiczną zmianę przepływności transmisji w zależności od estymaty parametrów kanału radiowego bądź krótkookresowej ramkowej stopy błędów [1]. Biorąc pod uwagę znacznie ograniczoną liczbę algorytmów możliwych do wykorzystania w heterogenicznych sieciach WBAN [1, 2, 3, 4], z wielodostępem TDMA (Time Division Multiple Access), istnieje potrzeba opracowania nowej metody alokacji strumieni danych z równolegle pracującymi interfejsami radiowymi. Istotą nowej metody jest zwiększenie efektywności wykorzystania dostępnych zasobów czasowoczęstotliwościowych poprzez lokalną estymację i predykcję parametrów kanału radiowego w węźle sieci. 2. NOWA ADAPTACYJNA METODA ALOKACJI STRUMIENI DANYCH Opracowana adaptacyjna metoda alokacji strumieni danych (AMASD) zakłada synchronizację czasową obu interfejsów radiowych, wyko więcej »

NOWE EFEKTYWNE ROZWIĄZANIA W ZINTEGROWANYCH SIECIACH FRONTHAUL I BACKHAUL W DOMENIE MOBILNEGO DOSTĘPU SYSTEMÓW KOMÓRKOWYCH 5G - DOI:10.15199/59.2017.6.7
Zbigniew Zakrzewski 
Sieci komórkowe następnych generacji na pewno będą cechowały się odmiennymi architekturami. Wiąże się to z faktem, że jest coraz większe zapotrzebowanie na mobilny dostęp do zasobów radiowych zapewniających bardzo dużą przepływność, przy jednoczesnym dużym przyroście stacji ruchomych pracujących w coraz wyższej klasie. Terminale mobilne UE (User Equipment) wysokiej klasy mogą mieć dostęp do bardzo dużych przepływności tylko w przypadku, gdy będzie to dostęp przestrzenny, tzn. gdy będzie możliwa równoległa komunikacja z kilkoma macierzami antenowymi jednocześnie. Zapewnienie takich rozwiązań jest możliwe dzięki wprowadzeniu systemu rozproszonych stacji bazowych sterowanych centralnie C-RAN (Centralized/ Cloud Radio Access Network) [1] lub rozłożonych systemów antenowych LSASs (Large-Scale Antenna Systems). Obecnie obserwuje się wzrost zainteresowania konstruowaniem sieci fronthaul w konfiguracjach scentralizowanych, niejednokrotnie z dynamicznym przenoszeniem centrum sterowania podsiecią lub punktów przetwarzania sygnałów w chmurze. Tego rodzaju podejście zapewnia możliwość jednoczesnego sterowania kilkoma stacjami bazowymi eNodeB lub kilkoma wyniesionymi modułami radiowymi RRH (Remote Radio Head), przy jednoczesnym ograniczaniu niezależności modułów RRH - rys. 1. eNodeB eNodeB eNodeB RRH RRH RRH S-GW MME Distributed RAN Centralized/Cloud RAN S1-c S1-c S1-c S1-c S1-u S1-u S1-u S1-u X2-c,u X2-c,u X2-c,u BBUs UE U-u U-u UE U-u U-u S11 X2-c,u Backhaul Backhaul BBUs S1-c S1-u Fronthaul U-u Rys. 1 Domena dostępu radiowego systemu komórkowego 4G w wersjach zdecentralizowanej oraz scentralizowanej (z możliwością wykorzystania chmury centrów przetwarzania sygnałów - ewolucja w kierunku 5G). W sieciach komórkowych 4G realizacje sieci backhaul oraz fronthaul są zwykle jednorodne i nie przenikają się nawzajem. Jest to powodowane tym, że dosyłowe łącza backhaul bazują na klasycznych sieciach pakieto więcej »

NOWY WEWNĄTRZBUDYNKOWY ALGORYTM WYZNACZANIA POŁOŻENIA OBIEKTÓW - DOI:10.15199/59.2017.6.61
Agnieszka Czapiewska 
Obecnie dąży się do zrealizowania hasła ubiquitous positioning, które można tłumaczyć jako wszechobecną radiolokalizację [9]. Możliwość określania położenia osób i obiektów znajduje wiele zastosowań w różnych dziedzinach życia i przemysłu, a mianowicie pozwala: - zwiększyć bezpieczeństwo (np. systemy wspierające strażaków [5], [8]), - udoskonalić system opieki nad osobami starszymi [1], - poprawić jakość usług świadczonych przez muzea, galerie, centra handlowe przez dostarczanie do klientów informacji w kontekście ich położenia [6], - zwiększyć efektywność podejmowanych decyzji biznesowych na podstawie analizy zachowań klientów [7]. Wszystkie wymienione wyżej zastosowania dotyczą głównie środowiska wewnątrzbudynkowego. W takim środowisku dobrze znany i powszechny system GPS, a także pozostałe satelitarne systemy radionawigacyjne, nie świadczą usług lokalizacyjnych z wymaganą jakością. Konieczne staje się opracowanie rozwiązań przeznaczonych do pracy w budynkach. Jak się okazuje, ze względu na szczególne warunki propagacyjne wewnątrz budynków, projektowanie systemu radiolokalizacyjnego w takim środowisku nie jest łatwe. Należy uwzględnić zjawiska odbicia, ugięcia oraz rozpraszania fali elektromagnetycznej, które mają duży wpływ na propagację fali radiowej w zamkniętej przestrzeni. Zjawiska te należy uwzględnić zarówno podczas projektowania systemu i rozmieszczania węzłów referencyjnych w przestrzeni, jak i podczas wyboru algorytmów wyznaczania położenia. W przypadku zastosowania metody pomiarowej pozwalającej określić odległość od węzła lokalizowanego do ruchomego (TOA - Time of Arrival, RTT - Round Trip Time) najczęściej stosowanymi algorytmami wyznaczania położenia są algorytmy Chana [2] oraz Foy’a [4]. Niestety, twórcy tych algorytmów zaznaczyli, że rozkład błędów danych wejściowych do obliczeń powinien być gaussowski o wartości średniej zerowej. Okazuje się, że w środowisku wewnątrzbudynkowym, gdzie urządzenia więcej »

OCENA EFEKTYWNOŚCI METOD WIELODOSTĘPU IEEE 802.15.6 SENSORÓW BEZPRZEWODOWYCH ELEKTRONIKI UBIERALNEJ W ZASTOSOWANIACH TELEMEDYCZNYCH - DOI:10.15199/59.2017.6.66
Jacek Jarmakiewicz Krzysztof Maślanka 
W ciągu 15 lat, licząc w cenach z 2017 r., Polska musi zwiększyć finansowanie służby zdrowia o ok. 50 mld złotych (dla porównania wszystkie wydatki budżetu na 2017 r. to 384,6 mld zł). Dlaczego? Dlatego, bo dramatycznie zwiększy się liczba osób powyżej 60 roku życia. Dane ze świata pokazują, że im większy jest odsetek osób powyżej 60 roku życia tym większe są wydatki na służbę zdrowia. Powielanie starego modelu służby zdrowia polegającego na tym, że wszelkie nieefektywności ukrywane są poprzez coraz większe dotacje nie sprawdziło się. Dlatego niezbędne jest szybkie przewartościowanie w dziedzinie ochrony zdrowia i szybkie wprowadzenie telemedycyny. Jednym z narzędzi obniżenia kosztów służby zdrowia jest powszechne wykorzystanie elektronika ubieralnej. Zastosowanie technik teleinformatycznych w medycynie prowadzi do urzeczywistnienia koncepcji zdrowia mobilnego (m-health), a w efekcie do zwiększenia efektywności służby zdrowia i lepszego wykorzystania środków podatników. Dzięki dynamicznemu rozwojowi niskoenergetycznych sensorów, implantów, technologii sieciowych oraz metod ich zdalnego zasilania realne jest wykorzystanie szeregu czujników na ciele człowieka, które zapewnią zbieranie danych na temat jego zdrowia (Rys. 1.). Można zaryzykować twierdzenie, że na naszych oczach urzeczywistnia się myśl Aldusa Huxleya, iż badania medyczne zrobiły tak niebywały postęp, że dziś praktycznie nie ma już ani jednego zdrowego człowieka. Nic, z technicznego punktu widzenia, nie stoi na przeszkodzie, aby poprawić komfort życia ludzi, nie tylko tych którzy chorują, ale i tych którzy są zdrowi. GPS ECG i EEG Tętno Temperatura Saturacja Jakość powietrza Smartfon Akcelerometr Żyroskop Krokomierz Potliwość Sensor ruchu Zegar Zdalne podawanie leków (iniektor) Okulary rzeczywistości rozszerzonej VoIP Centrum telemedyczne Rys. 1. Wykorzystanie elektroniki ubieralnej do monitorowania stanu zdrowia Obecnie realizowane są liczne prac więcej »

OCENA MOŻLIWOŚCI ZASTOSOWANIA PROTOKOŁU OLSR W SIECIACH SENSOROWYCH ROZWIJANYCH W TERENIE ZURBANIZOWANYM - DOI:10.15199/59.2017.6.91
Adam Kraśniewski Janusz Romanik Edward Golan 
Niniejszy artykuł stanowi kontynuację prac dotyczących protokołu routingowego OLSR zaprezentowanych w [1,2], a zarazem poszerza obszar dotychczasowego przeznaczenia tego protokołu, tj. sieci MANET (ang. Mobile Ad-hoc NETworks). W artykule dokonano oceny możliwości zastosowania protokołu routingowego OLSR w sieciach sensorowych rozwijanych w terenie zurbanizowanym. W sieci bezprzewodowej z protokołem OLSR (ang. Optimized Link State Routing) każdy węzeł wysyła okresowo zaktualizowane informacje o węzłach sąsiednich pierwszego skoku (wiadomości HELLO). Na podstawie tych wiadomości każdy węzeł wybiera swój zestaw węzłów pośredniczących, tzw. MPR (ang. MultiPoint Relays), który zapewnia im dostęp do wszystkich węzłów sąsiednich drugiego skoku. Przy wyborze węzłów MPR uwzględniana jest wartość parametru Willingness, rozgłaszana przez wszystkie węzły wraz z wysyłaniem wiadomości HELLO. Poprzez ustawienie parametru Willingness każdy węzeł określa swoją "zdolność" do pełnienia funkcji węzła MPR [3]. Węzły pośredniczące okresowo wysyłają wiadomości TC (ang. Topology Control), które zawierają informacje o wszystkich dostępnych węzłach za ich pośrednictwem. Druga wersja protokołu OLSRv2, opublikowana w kwietniu 2014 roku jako RFC 7181, zachowuje podstawowe mechanizmy i algorytmy OLSRv1, które zostały wzbogacone o możliwość korzystania z innych metryk łącza niż tylko liczba skoków w procesie wyboru najkrótszej trasy [4]. Protokół AODV [7, 10] wykorzystuje cechy protokołów DSDV [5] i DSR [6]. Protokół AODV, podobnie jak DSDV, wykorzystuje numery sekwencyjne w celu wyboru najbardziej aktualnej ścieżki. Każdy węzeł sieci stosuje numer sekwencyjny (ang. Sequence Number). Numer ten oznacza liczbę, która może być modyfikowana tylko przez właściciela i służy do oznaczenia aktualności danych wysyłanych w wiadomościach protokołu przez każdy z węzłów. Protokół odkrywania ścieżek działa w podobny sposób jak dla DSR. Routowanie źródłowe (ang więcej »

OCENA WPŁYWU METRYKI ŁĄCZA NA EFEKTYWNOŚĆ MECHANIZMU ROUTINGU BAZUJĄCEGO NA OLSRv2 - DOI:10.15199/59.2017.6.20
Janusz Romanik Rafał Bryś Krzysztof Zubel 
Sieci MANET (ang. Mobile Ad-hoc NETworks) zbudowane są z mobilnych węzłów komunikujących się za pomocą łączy wieloskokowych. Sieci te charakteryzują się zdolnością do samoorganizacji i dynamicznej zmiany topologii. Sieci te mogą funkcjonować bez dostępu do stałej infrastruktury. W sieci MANET, ze względu na mobilność węzłów, zmiana topologii może występować w sposób ciągły. W rezultacie trasa routingowa, składająca się z konkretnej liczby skoków między danymi węzłami, powinna być traktowana jako tymczasowa. Sieci MANET posiadają zdolność automatycznego łączenia się w jedną większą sieć lub do dzielenia na mniejsze sieci. Z powyższych względów sieci MANET mogą znajdować zastosowanie w systemach wojskowych na szczeblu taktycznym [4,5]. Dostępna obecnie druga wersja protokołu OLSRv2, opublikowana została w kwietniu 2014 roku jako RFC 7181 [1]. OLSRv2 zachowuje podstawowe mechanizmy i algorytmy OLSRv1 [2], które zostały wzbogacone o możliwość korzystania z innych metryk łącza niż tylko liczba skoków w procesie wyboru najlepszej trasy. Ograniczenia protokołu OLSR były przedmiotem wielu prac badawczych mających na celu rozwiązanie problemów związanych z efektywnym wykorzystaniem zasobów energetycznych węzłów, a tym samym wydłużeniem czasu życia sieci [3,6]. W rozwiązaniach dotyczących routingu uwzględniającego zasoby energetyczne brano pod uwagę głównie poziom naładowania baterii oraz chwilowe zużycie energii. Odmienne i bardziej kompleksowe podejście zawiera proponowany w [9] mechanizm RESA-OLSR. Mechanizm ten ma na celu poprawę efektywności działania protokołu OLSR poprzez wykorzystanie informacji o zasobach węzłów (poziom naładowania baterii) i obciążeniu węzła ruchem oraz wyznaczenie metryki globalnej uwzględniającej te zasoby. Wyznaczona metryka globalna jest następnie odwzorowana na wartość parametru Willingness, dzięki czemu przy wyborze węzła pośredniczącego, tzw. MPR (ang. Multi Point Relay) uwzględniane są zasoby więcej »

OPRACOWANIE PROTOTYPU BEZPRZEWODOWEJ SIECI SENSORYCZNEJ NISKIEJ MOCY DLA POTRZEB MONITOROWANIA INFRASTRUKTURY PRZEMYSŁOWEJ - DOI:10.15199/59.2017.6.89
Michał Grabia Tomasz Markowski Jakub Mruczkiewicz Krzysztof Plec 
Rozwój koncepcji Przemysłu 4.0 w ostatnich latach spowodował znaczącą presję na rozwiązania IoT (ang. Internet of Things - Internet Rzeczy). Nowa wizja kolejnej rewolucji przemysłowej (ang. Industry 4.0) jako podstawę dla osiągania wyższych wydajności określiła konieczność znaczącej redukcji stanów awaryjnych oraz poprawę efektywności przepływów towarowych. Innymi słowy, im mniej awarii urządzeń i maszyn w przedsiębiorstwach produkcyjnych (dzięki monitorowaniu ich stanu oraz mechanizmom predykcji) tym większa wydajność i niższe koszty wytwarzania. Podobnie sytuacja wygląda w obszarze przepływów towarów, gdzie spadek liczby błędów oraz możliwości monitorowania stanu produktów stają się kwestiami kluczowymi dla poprawy efektywności łańcuchów dostaw. Taki stan rzeczy jest możliwy do osiągnięcia tylko poprzez zastosowanie technologii IoT, a szczególnie poprzez wykorzystanie sieci sensorycznych. Bezprzewodowe sieci sensoryczne opierają się na rozwiązaniach typu ad hoc i mają z nimi pewne cechy wspólne, takie jak [1]:  ograniczenia czasu pracy węzłów wynikające z ograniczonych zasobów energetycznych  niepewność procesów komunikacyjnych wynikającą z bezprzewodowości  potrzebę samo konfigurowalności z minimalnym zaangażowaniem człowieka Oczywiście obok cech wspólnych występują również znaczące różnice, w tym między innymi:  mają często większy rozmiar, czyli składają się z tysięcy węzłów  pojedyncze sensory mają stałą lokalizację  komunikacja w sieci jest dano-centryczna a nie adresowo-centryczna  przesyłane są raczej małe ilości danych  w ujęciu sprzętowym węzły są urządzeniami mniejszymi i posiadając mniejsze zasoby energetyczne W zależności od zastosowania istnieje konieczność wyboru właściwej bezprzewodowej sieci sensorycznej, co wymaga analizy ich najważniejszych parametrów. Z użytkowego punktu widzenia takimi parametrami charakteryzującymi bezprzewodowe więcej »

OPTYMALIZACJA EFEKTYWNOS´CI ENERGETYCZNEJ ŁA˛CZA W DÓŁ SYSTEMU LTE - DOI:10.15199/59.2017.6.73
Bartosz Bossy Hanna Bogucka 
Problem zu˙zycia energii w bezprzewodowych systemach telekomunikacyjnych staje si˛e coraz wa˙zniejszym aspektem ich projektowania. W ostatnich latach powstało wiele prac dotycza˛cych alokacji zasobów maja˛cych na celu maksymalizacj˛e efektywno´sci energetycznej [1], [5], [6]. Wszystkie przytoczone prace skupiaja˛ sie˛ jednak na maksymalizacji EE definiowanej jako stosunek przepływnos ´ci ła˛czy sieci wynikaja˛cej z wzoru Shannona do całkowitej mocy zu˙zywanej w sieci. Takie podej´scie stanowi przypadek idealny, w którym ograniczenia praktycznych systemów, takie jak: dyskretne warto´sci efektywno- ´sci widmowej czy grupowanie podno´snych w bloki zasobów, nie sa˛ brane pod uwage˛. Niemniej jednak istnieja ˛ prace [4], w których takie, praktyczne modele systemu sa˛ rozwaz˙ane, ale tylko w przypadku maksymalizacji przepływno´sci. Dlatego te˙z w niniejszym artykule przedstawiono maksymalizacj˛e EE dla systemu z praktycznymi ograniczeniami bazuja˛cymi na systemie LTE, co stanowi oryginalny wkład autorów. Struktura artykułu przedstawia sie˛ naste˛puja˛co: w rozdziale 2 przedstawiono model analizowanego systemu. W rozdziale 3 zaproponowano iteracyjny algorytm 1Praca powstała w ramach projektu "EcoNets" finansowanego ze ´srodków Narodowego Centrum Nauki przyznanych na podstawie decyzji numer DEC-2013/11/B/ST7/01168 maksymalizacji efektywno´sci energetycznej. Natomiast w ostatnim rozdziale zaprezentowano wyniki proponowanego rozwia˛zania w odniesieniu do metod referencyjnych oraz podsumowano prac˛e. 2. MODEL SYSTEMU Rozwa˙zmy komórk˛e systemu LTE, w której U u˙zytkowników współdzieli K bloków zasobów (ang. Resource Block - RB), a kaz˙dy blok składa sie˛ z NSC sa˛- siaduja˛cych podnos´nych. W analizowanym systemie zakładamy, ˙ze wszystkie bloki zasobów przypisane danemu u˙zytkownikowi w danym przedziale czasowym (ang. Time Transmission Interval - TTI) wykorzystuja˛ ten sam schemat modulacji i kodowania (ang. Modulation and Coding więcej »

OPTYMALIZACJA EFEKTYWNOŚCI ENERGETYCZNEJ ŁĄCZA RADIOWEGO Z PRZEKAŹNIKIEM - DOI:10.15199/59.2017.6.21
Bartosz Bossy Adrian Kliks Hanna Bogucka 
Wokresie ostatniej dekady badania zwia˛zane z efektywnos ´cia˛ energetyczna˛, jak równiez˙ z transmisja˛ wykorzystuja ˛ca˛ przekaz´niki zyskały duz˙a˛ popularnos´c´. Efektywna energetycznie transmisja pozwala na zmniejszenie zu˙zywanej przez elementy sieci energii, a co za tym idzie na przedłuz˙enie z˙ywotnos´ci urza˛dzen´ oraz zmniejszenie emisj˛e dwutlenku w˛egla. Z drugiej strony u˙zycie przeka´zników pozwala powi˛ekszy´c zasi˛eg sieci, zwi˛ekszy´c przepustowo ´s´c systemu czy te˙z zmniejszy´c moc transmisji. Transmisja wykorzystuja˛ca przekaz´niki jest zagadaniem szeroko znanym w literaturze, zarówno z perspektywy maksymalizacji przepływno´sci [1], jak i EE [2], [4], [5]. Niestety, doste˛pne prace skupiaja˛ sie˛ na jednej z kliku moz˙liwych metod transmisji, nie porównuja˛c jej z innymi. Dlatego te˙z w niniejszym artykule zestawiono najwa˙zniejsze techniki transmisji i okres´lono istnieja˛ce zalez˙nos´ci mi˛edzy nimi z perspektywy efektywno´sci energetycznej. Struktura artykułu przedstawia sie˛ naste˛puja˛co: w rozdziale 2 zdefiniowano model systemu. W rozdziale 3 dokonano optymalizacji i przedstawiono algorytm maksymalizuja ˛cy efektywnos´c´ energetyczna˛. Ostatni, 4 roz- 1Praca powstała w ramach projektu "EcoNets" finansowanego ze ´srodków Narodowego Centrum Nauki przyznanych na podstawie decyzji numer DEC-2013/11/B/ST7/01168 dział, zawiera wyniki symulacji dla rozpatrywanych przypadków oraz podsumowuje wykonane prace. 2. MODEL SYSTEMU Rozwaz˙amy system OFDM wykorzystuja˛cy N podnos ´nych ze stacja˛ bazowa˛ (ang. base station - BS), przeka ´znikiem (ang. relay node - RN) oraz terminalem u˙zytkownika ko´ncowego (ang. user equipment - UE).Wanalizowanym systemie mo˙zliwa jest transmisja bezpo´srednio z stacji bazowej do u˙zytkownika ko´ncowego (ang. Direct Link - DL) lub transmisja z wykorzystaniem przeka´znika. Przekaz´nik, wykorzystuja˛cy to samo pasmo, moz˙e natomiast działa´c w dwóch trybach.Wpierwszym z nich, odeb więcej »

PA-BICM-ID Z PRZEPLOTEM SKŁADOWYCH SYGNAŁU - DOI:10.15199/59.2017.6.38
Maciej Krasicki 
Zastosowanie zoptymalizowanej reguły (A) odwzorowania bloków binarnych w sygnały elementarne jest nieodłącznym elementem modulacji BICM-ID [10] - umożliwia przesunięcie w dół granicy prawdopodobieństwa błędu na wykresie BER(/0) i osiągnięcie jak największego stopnia poprawy BER w procesie iteracyjnego dekodowania. Charakterystycznym skutkiem przesunięcia w dół granicy pr. błędu jest jednoczesne "opóźnienie" fazy gwałtownego opadania krzywych BER(⁄0). Tym samym w zakresie małych wartości /0 sytuacja ulega pogorszeniu (krzywe BER nie opadają w kolejnych iteracjach). Z kolei w oryginalnej modulacji BICM (bez iteracyjnego dekodowania), której zastosowanie sankcjonują standardy różnych systemów bezprzewodowych, jak DVB-T2 czy HSPA, najkorzystniejszą metodą odwzorowania bloków binarnych w sygnały elementarne jest reguła Graya ( (G)) [3]. W świetle powyższych faktów, kłopotliwe staje się użycie iteracyjnego odbiornika w sieci, w której część odbiorników nie jest przystosowana do iteracyjnego przetwarzania sygnałów, szczególnie w przypadku transmisji rozgłoszeniowej, bądź typu multicasting. W [7, 8] autor referatu zaproponował PA-BICM-ID jako sposób transmisji zgodny wstecz z oryginalną modulacją BICM, a jednocześnie dający możliwość poprawy BER w wyniku procesu iteracyjnego, realizowanego przez kompatybilne odbiorniki. W uproszczeniu, PABICM- ID, polega na transmisji "zasadniczego" pakietu, składającego się z sygnałów, w które odwzorowano bloki binarne zgodnie z regułą Graya, po czym następuje transmisja sufiksu - tj. dodatkowych sygnałów, reprezentujących wybrane bloki binarne z ciągu kodowego, tym razem według metody odwzorowania (A) (w tej roli reguła M16a z pracy [9]) Dzięki takiej organizacji transmitowanego pakietu, odbiorniki kompatybilne mogą korzystać z dodatkowych sygnałów "wspomagających" proces iteracyjny. Natomiast odbiorniki starszego typu - znając początek (wykrycie preambuły) i koniec zasadnicz więcej »

PLANOWANIE LOKALNEJ SIECI JEDNOCZĘSTOTLIWOŚCIOWEJ RADIOFONII CYFROWEJ DAB+ - DOI:10.15199/59.2017.6.83
Daniel Niewiadomsk i Rafał Michniewicz Janusz Sobolewski Dariusz Więcek 
W ramach niniejszego referatu przedstawiono wyniki prac związanych z planowaniem sieci radiofonii cyfrowej w systemie DAB+ (Digital Audio Broadcasting+) we Wrocławiu na potrzeby projektu lokalnej sieci jednoczęstotliwościowej (Single Frequency Network - SFN) o nazwie LokalDAB. Zaprezentowane zostały wyniki uzyskane podczas prac przeprowadzonych w Pracowni Gospodarki i Inżynierii Widma Instytutu Łączności PIB w ramach wspólnego projektu realizowanego z pozostałymi partnerami konsorcjum projektu: Politechniką Wrocławską i Radiem Wrocław SA. Referat zawiera praktyczne aspekty zawiązane z uruchomieniem emisji zarówno od strony planistycznej, samego procesu doboru kanału, jak i optymalizacji parametrów sieci a także analizę i ocenę wpływu zjawiska utraty synchronizacji planowanej sieci. 2. LOKALNA SIEĆ DAB+ LOKALDAB Celem projektu LokalDAB jest opracowanie demonstratora sieci jednoczęstotliwościowej SFN pracującej w standardzie DAB+, z wykorzystaniem uniwersalnych układów programowalnych (USRP SDR) oraz bazującej na oprogramowaniu open source. Zaproponowane rozwiązanie jest kierowane do lokalnych nadawców, których możliwości finansowe nie pozwalają na rozpoczęcie emisji w sposób tradycyjny w multipleksie ogólnopolskim. Dzięki relatywnie niedrogiej platformie nadawczej, realizowanej w projekcie, będą oni mieli możliwość uruchomienia lokalnej emisji cyfrowego radia w systemie DAB+, co przyczyni się do wzrostu popularności nowego standardu transmisji, umożliwi odbiór znacznie lepszego dźwięku i nowych programów radiofonicznych, co wpłynie na zwiększenie pluralizmu medialnego i ciekawej oferty programowej w lokalnych społecznościach. 3. PROJEKTOWANIE SIECI Dobór częstotliwości radiowych został wykonany zgodnie z uwarunkowaniami krajowymi i międzynarodowymi. W celu więcej »

PODSYSTEM LOKALIZACYJNY W PLATFORMIE IONIS - DOI:10.15199/59.2017.6.78
Jerzy Kołakowski Vitomir Djaja-Jośko Marcin Kołakowski Jacek Cichocki 
Projekt IONIS realizowany w ramach programu AAL (Ambient Assisted Living) ma na celu opracowanie modułowej platformy, która zapewni wsparcie osobom z demencją i ich opiekunom. Ludzie z demencją, w każdym stadium choroby doświadczają problemów związanych z utratą pamięci, zakłopotaniem, dezorientacją. Okresowe powtarzanie czynności, trudności ze znalezieniem przedmiotów, nocne spacery oraz ucieczki z miejsca zamieszkania należą do typowych objawów choroby [5]. Platforma IONIS, w której skład wejdą zarówno rozwiązania sprzętowe jak i programowe, będzie wyposażona w funkcjonalności umożliwiające tworzenie różnorodnych usług. Pozwoli ona na lokalizację osób i przedmiotów w pomieszczeniach, lokalizację osób na zewnątrz budynków, monitorowanie stanu zdrowia. Komunikacja z platformą będzie się odbywać za pomocą prostych, adaptacyjnych interfejsów. Modułowa struktura platformy umożliwi jej przystosowanie do potrzeb konkretnego użytkownika, a w przyszłości poszerzenie oferowanych przez nią usług. Platforma IONIS oprócz wspierania osób podczas codziennych aktywności (np. poprzez lokalizację przedmiotów, przypominanie o zaplanowanych czynnościach) umożliwi gromadzenie danych pozwalających na wykrycie i ocenę zmian zachowań osób monitorowanych (np. ocenę ich aktywności fizycznej), a także detekcję sytuacji zagrażających zdrowiu użytkownika (np. upadku, czy też niemożności powrotu do miejsca zamieszkania). Platforma zapewni też wsparcie dla opiekunów osób chorych poprzez udostępnianie informacji o zachowaniach osób monitorowanych oraz zdarzeniach mogących mieć wpływ na ich zdrowie. Zakres projektu IONIS obejmuje badania pilotażowe z udziałem osób dotkniętych demencją. Będą one polegały na instalacji i testowaniu działania platformy w mieszkaniach osób chorych. Badana będzie efektywność działania platformy oraz poziom akceptacji wdrożonych rozwiązań. Kluczowym dla osiągnięcia celów projektu jest system lokalizacji osób i przedmiotó więcej »

POMIAR JAKOŚCI ŁĄCZA SATELITARNEGO DVB-S JAKO FUNKCJI KODU KOREKCYJNEGO - DOI:10.15199/59.2017.6.39
Bogdan Uljasz Daniel Jaros Jan M. Kelner Cezary Ziółkowski 
Standard DVB-S (Digital Video Broadcasting - Satellite) został opracowany jako pierwszy ze standardów DVB. Opisuje go norma EN 300 421[4], przyjęta przez organizację ETSI (Eurpean Telecommunications Standards Institute). Standard przeznaczony jest głównie do świadczenia usług dostarczanych bezpośrednio do domu DTH (Direct To Home), które dostępne są dla użytkowników będących w posiadaniu zintegrowanych odbiorników satelitarnych IRD (Integrated Receiver Decoder). DVB-S zaprojektowany został do pracy w zakresie częstotliwości odbiorczych od 10750 MHz do 12750 MHz i zakłada stosowanie modulacji QPSK Quaternary Phase Shift Keying). Standard EN 301 210 [2], który odnosi się do DVB-S w zastosowaniach na cyfrowych satelitarnych wozach reporterskich DSNG (Digital Satellite News Gathering), przewiduje zastosowanie modulacji o większych wartościowościach: 8PSK, 16QAM i 32APSK. Możliwe jest to dzięki większym antenom (wozu transmisyjnego i ośrodka telewizyjnego) oraz mocą nadajników. Do przesyłania danych wykorzystywany jest strumień zgodny ze standardem MPEG-2 TS [8]. System DVB-S (S2) najczęściej wykorzystuje transpondery satelitarne o paśmie mieszczącym się w granicach od 26 do 74 MHz. Wozy transmisyjne wykorzystują podczas transmisji mniejsze szerokości pasma. 2. KODY KOREKCYJNE I MIARY JAKOŚCI ŁĄCZA SATELITARNEGO Standard dotyczący wozów reporterskich przewiduje przesyłanie jednego strumienia programowego PS (Program Stream). PS powstaje na skutek multipleksacji danych źródłowych, takich jak video, audio, czy dane (sterujące lub użytkowe). Strumień PS dzielony jest na pakiety transportowe TS (Transport Stream). Pakiety TS poddawane są zabezpieczeniu kodowemu FEC (Forward Error Correction). Za ochronę przed błędami, w DVB-S, odpowiedzialne jest dwustopniowe kodowanie korekcyjne FEC, które bazuje na kodowaniu splotowym 1/2 o długości K=7 i sprawności 1/2, 2/3, 3/4, 5/6 lub 7/8 oraz na skróconym kodzie Reed’a-SolomonR więcej »

POMIARY IMPULSOWYCH ZABURZEŃ ELEKTROMAGNETYCZNYCH O DUŻEJ ENERGII W SIECI ZASILANIA NISKIEGO NAPIĘCIA - DOI:10.15199/59.2017.6.15
Leszek Kachel Mieczysław Laskowski 
Sieć energetyczna niskiego napięcia jest źródłem zasilania elektronicznych urządzeń domowego i profesjonalnego zastosowania. Od jakości dostarczanej energii zależy poprawność pracy aparatury elektronicznej. Głównym źródłem utrudniającym pracę aparatury są wszelkiego rodzaju zaburzenia elektromagnetyczne Do najistotniejszych zaburzeń elektromagnetycznych należą zaburzenia impulsowe o dużej energii określane mianem przepięć. Przepięcia mogą pochodzić z działania innych postronnych urządzeń oraz mogą występować w wyniku wyładowań atmosferycznych. Niezależnie od źródła pochodzenia zabezpieczenie się przed ich oddziaływaniem wymaga zastosowania odpowiednich środków zaradczych w postaci najczęściej stosowanych ograniczników przepięć. Prawidłowy dobór ograniczników przepięć i ich instalacja wymaga określenia amplitud występujących przepięć oraz ich częstotliwości występowania. W sieciach energetycznych niskiego napięcia występują zaburzenia elektromagnetycznego różnorodnym charakterze. Głównymi przyczynami występujących zaburzeń elektromagnetycznych w energetycznej sieci zasilania są: dołączanie i odłączanie obciążeń, szczególnie o charakterze indukcyjnym, obciążenia o charakterze nieliniowym, przełączanie obwodów elektrycznych o dużym poborze mocy, stany nieustalone wynikające z uszkodzeń urządzeń podczas ich pracy, niepewne kontakty i łącza w linii energetycznej (zła jakość linii), wyładowania atmosferyczne. Zbadanie ilościowe występujących przepięć w danej sieci energetycznej wymaga zastosowania specjalistycznej aparatury i powinno być przeprowadzane w okresie, kiedy nie występują wyładowania atmosferyczne zaburzające rzeczywisty obraz pracy sieci energetycznej. 2. APARATURA POMIAROWA Pomiary amplitudy i częstotliwości występowania zaburzeń elektromagnetycznych objawiających się w formie przepięć wymagają zastosowania specjalistycznej aparatury, do których można zaliczyć np. oscylografy z pamięcią. Stosowanie tego typu me więcej »

PRAKTYCZNA IMPLEMENTACJA SCENTRALIZOWANEGO MECHANIZMU ZARZĄDZANIA OBSS - DOI:10.15199/59.2017.6.34
Janusz Gozdecki Katarzyna Kosek-Szott Krzysztof Łoziak 
Ze względu na nieustannie rosnącą popularność techniki Wi-Fi1, w ostatnim czasie pojawił się problem sieci gęstych (ang. dense networks). Sieci gęste charakteryzują się dużą liczbą urządzeń oraz sieci Wi-Fi występujących na danym obszarze. Konsekwencją występowania coraz większej liczby sieci Wi-Fi w bliskiej odległości względem siebie, jest pojawienie się problemu niewystarczającej liczby ortogonalnych kanałów radiowych, które mogłyby zapewnić ich niezakłóconą pracę. Problem ten został zauważony przez grupę standaryzacyjną IEEE 802.11. W roku 2012, w ramach rozszerzenia IEEE 802.11aa [1], został zdefiniowany rozproszony mechanizm do zarządzania sieciami o nachodzących na siebie zasięgach (ang. Overlapping Basic Service Set Management, OBSS Management). Mechanizm OBSS management polega na takim przydziale dostępnych kanałów radiowych, aby zapewnić jak najlepszą jakość obsługi dla wszystkich sieci występujących na danym obszarze. Mechanizm ten opiera swoją pracę na lokalnej wiedzy pozyskiwanej od punktów dostępowych (ang. access points, APs), które pozostają we wzajemnym zasięgu. Szczegóły działania mechanizmu OBSS management zostały opisane w [2]. Dodatkowo, w ramach 1 W roku 2016 sprzedano ponad 3 miliardy urządzeń Wi-Fi [5]. rozszerzenia IEEE 802.11aa zostały zdefiniowane mechanizmy współdzielenia kanałów radiowych przez grupę AP, w przypadku kiedy liczba dostępnych kanałów ortogonalnych nie jest wystarczająca. Udowodniono jednak, że wynik działania mechanizmu OBSS management nie zawsze jest optymalny [3]. Obecnie trwają prace nad nowym rozszerzeniem IEEE 802.11ax, w którym zostaną zdefiniowane inne mechanizmy pozwalające na łagodzenie skutków występowania problemu OBSS. Należą do nich: optymalizacja progu wykrywania zajętości medium (ang. clear channel assessment), rozróżnianie ramek pochodzących z różnych sieci Wi-Fi (ang. OBSS coloring) oraz sterowanie mocą nadawczą (ang. transmit power control). Ze względu jedna więcej »

PROBLEMY I ROZWIAZANIA W TELEKOMUNIKACYJNYCH Z KANAŁEM ZWROTNYM I IMPLEMENTACJA WYNIKÓW - DOI:10.15199/59.2017.6.100
Anatoliy Platonov 
Nowadays, digitizing and coding is of the signals transmission, independen sources of signals analog or digital. However, in 1965 1970s, communication systems (CS) wi channels transmitting without coding w intensive research carried out in two directions. The first one (e.g. [1]-[7]) was concentrated on development of optimal FCS transmitting signals from sources iteratively with the performance attaining the Shannon’s limits. Objective of the second d [8]-[11]) was a development of FCS iteratively ting discrete signals (code blocks) over channel with substantially decreased e Each directions had independent and ve results, periods of greater or weaker attention but co mon difficulty was (and remains) the lack of impleme tation. The single example of practical application FCS is automatic repeat request (ARQ) The paper is devoted to the analysis of reasons which blocked application of the results of these r searches. As our investigations show, these reasons have Poznań, 21 ZAGADNIENIACH OPTYMALIZACJI SYSTEM NYCH KANAŁEM ZWROTNYM I IMPLEMENTACJA FEEDBACK COMMUNICATION SYSTEM systemów przesyłania omówione relacje i SPS z kasygnały resents communication FCS kanały zwrotne, Kailatha, transmisja , efektywność without coding, a single method ntly from are the 1965- with feedback were the subject of the analog f direction (e.g. transmit- ) analog forward error probability. verified analytical comthe implementation. of uest transmission. reasons, rerches. common source, and its removal of research in both directions applicable in practice. The paper is organized as follows. Sect. 1 devoted to the analysis and solution implementation of adaptive FCS transmitting analog i put signals (AFCS). In Sect. 3, in implementation of FCS transmitting discrete input signals (DFCS) have the same source, and can be r moved in the same way as in AFCS. of the code blocks transmission is discussed in Sect. 4 Brief więcej »

PROJEKTOWANIE TRÓJWYMIAROWEJ KONSTELACJI DLA TECHNIKI OFDM WYKORZYSTUJĄCEJ DWUWYMIAROWĄ, ODWROTNĄ˛TRANSFORMACJʲ FOURIERA - DOI:10.15199/59.2017.6.37
Tomasz G. Markiewicz 
Konstelacje trójwymiarowe stanowia˛ alternatywe˛ dla powszechnie stosowanych konstelacji QAM (ang. Quadrature Amplitude Modulation). Wykorzystanie konstelacji zbudowanej z punktów lez˙a˛cych w trójwymiarowej przestrzeni ma swoje korzenie w technikach ´swiatłowodowych a dokładniej w modulacji POLSK (ang. Polarisation Shift Keying) [1], [3]. Do konstelacji trójwymiarowych bardzo łatwo zaadoptowa´c technik˛e OFDM (ang. Orthogonal Frequency Division Multiplexing) wykorzystuja˛ca˛ dwuwymiarowa˛ odwrotna˛ transformacje˛ Fouriera, której rozmiar dodatkowego, tj. drugiego wymiaru jest równy wymiarowo´sci konstelacji [2]. Poniewa˙z w tym wypadku wynosi on 3, to aby uwypukli´c ten fakt, b˛edziemy t˛e technik ˛e w niniejszej pracy nazywa´c 3D-OFDM. Wi˛ecej informacji o tej technice mo˙zna znale´z´c w [5]. Intuicyjnie mo˙zna sobie wyobrazi´c, i˙z w przestrzeni trójwymiarowej jest wi˛ecej miejsca ni˙z na płaszczy´znie zespolonej, na której zazwyczaj projektowane sa˛ konstelacje. Dlatego te˙z korzystanie z konstelacji o wy˙zszej wymiarowo ´sci powinno przeło˙zy´c si˛e na lepsze własno´sci 1Praca została z sfinansowana w ramach ´srodków z działalno´sci statutowej na projekty badawcze, 08/81/8121/DSPB. transmisyjne sygnałów. W artykule porównano aktualnie znane konstelacje trójwymiarowe z zaproponowana˛w nim konstelacja˛ zbudowana˛ z wykorzystaniem algorytmu RD (ang. Root Distribution). Pozostała cz˛e´s´c pracy jest zorganizowana w nast˛epuja ˛cy sposób. W cze˛s´ci 2 opisano trzy rodzaje konstelacji trójwymiarowych. Pierwsze dwie, tj. konstelacja CIC (ang. Cube In Cube) oraz konstelacja CJ-SD (ang. Chen- Jiang Scheme-D), sa˛ konstelacjami rozwaz˙anymi w literaturze przedmiotu. Trzecia konstelacja jest natomiast zaproponowana w niniejszej pracy i została ona zbudowana za pomoca˛ algorytmu RD. W cze˛s´ci tej opisano równiez˙ wspomniany algorytm. W cz˛e´sci 3 przedstawiono model systemu oraz opisano sposób działania 3D-OFDM. Wyniki symulac więcej »

PROPOZYCJA ROZSZERZENIA ZALECENIA ITU-R P.1546 DO CZĘSTOTLIWOŚCI 6 GHZ NA PODSTAWIE WYNIKÓW POMIARÓW Z BAZY DANYCH ITU-R - DOI:10.15199/59.2017.6.32
Fryderyk Lewicki Andrzej Ługowski Władysław Budynkiewicz Grzegorz Zagórda 
Podczas posiedzeń "ITU-R Study Group 3" (ITU-R SG3) w latach 2013-2016 Niemiecka Federalna Agencja Sieci (BNetzA) przedstawiła wyniki pomiarów propagacyjnych [2, 3 i 4] wykonanych na częstotliwościach 850 MHz, 2,3 GHz, 5,45 GHz i 5,85 GHz w różnych typach terenu: wiejskim, podmiejskim i miejskim (rural, suburban i urban) i warunkach widoczności radiowej (LOS) i braku widoczności radiowej (NLOS). Nadajnik był umieszczony stacjonarnie, a odbiornik znajdował się w ruchu, zainstalowany na pojeździe. Wyniki pomiarów są dostępne w Bazie Danych ITU-R SG3. W referacie wykonano analizę statystyczną różnicy predykcja - pomiar zarówno dla częstotliwości poniżej jak i powyżej 3 GHz, a więc w obecnym zakresie stosowalności Zalecenia ITU-R P.1546 [1] jak i poza nim. 2. WYZNACZANIE MEDIAN Predykcję tłumienia trasy wykonano korzystając z cyfrowej mapy terenu SRTM. Wyniki pomiarów zostały przekształcone do median wyliczonych dla 20 metrowych odcinków tras pomiarowych. Z 680 444 pomiarów indywidualnych wyliczono 6 679 median. Mediany były obliczane średnio z około 400 (w przypadku LOS) i około 26 (NLOS) punktów pomiarowych. Na rys. 1 przedstawio więcej »

PROSTY WIELOKAMEROWY SYSTEM REJESTRACJI OBRAZU NA POTRZEBY BADAŃ NAD TELEWIZJĄ SWOBODNEGO PUNKTU WIDZENIA - DOI:10.15199/59.2017.6.59
Mateusz Sokołowski Krzysztof Wegner Tomasz Grajek 
Nieustanny rozwój telewizji oraz rosnące wymagania stawiane przez widzów prowadzą do pojawiania się na rynku coraz nowszych rozwiązań. Obecnie jednym z systemów, nad którymi na całym świecie prowadzi się prace, jest telewizja swobodnego punktu widzenia (ang. Free Viewpoint Television - FTV) [6]. System ten pozwala na zmianę położenia punktu widzenia wokół oglądanej sceny, co daje widzowi wrażenie, jakby znajdował się w centrum akcji. Choć system oferuje niespotykane wcześniej możliwości, nadal jest on w fazie testów, gdzie pozostaje jeszcze wiele problemów do rozwiązania. Obecne rozwiązania FTV opierają się na rozmieszczaniu kilku lub kilkunastu kamer wokół pewnej sceny. Problemem są przede wszystkim gabaryty kamer. Stosowane są duże kamery telewizyjne, które wraz ze sprzętem pomocniczym sprawiają, że system nie jest mobilny - zmiana nagrywanego otoczenia wiąże się z długim czasem przenoszenia sprzętu i ustawienia go w nowym miejscu. Dodatkowo różnice w charakterystyce optycznej poszczególnych kamer wymagają przeprowadzenia kalibracji, co przekłada się na wysoki stopień skomplikowania systemu. Innym istotnym zagadnieniem jest dokładna synchronizacja wszystkich kamer w systemie, niezbędna do dalszego przetwarzania zarejestrowanych obrazów. 2. WIELOKAMEROWY SYSTEM REJESTRACJI OBRAZU Aby zapewnić rozwój telewizji swobodnego punktu widzenia należy wprowadzić kilka usprawnień. System powinien być możliwie prosty w konstrukcji, tani oraz mobilny. Taki właśnie system jest tematem omawianej pracy. Rys. 1. Schemat blokowy prostego systemu wielokamerowego DOI: 10.15199/59.2017.6.59 PRZEGLĄD TELEKOMUNIKACYJNY - ROCZNIK XC - WIADOMOŚCI TELEKOMUNIKACYJNE - ROCZNIK LXXXVI - nr 6/2017 413 Duża kamera telewizyjna została zastąpiona modułem kamerowym, skł więcej »

PRZEZNACZENIE WIDMA CZĘSTOTLIWOŚCI RADIOWYCH DLA SYSTEMÓW BEZPRZEWODOWYCH 5G - DOI:10.15199/59.2017.6.6
Maciej J. Grzybkowski 
Jak ogólnie wiadomo, systemy 5. generacji (5G) w radiokomunikacji ruchomej będą cechować się znacznie większymi pojemnościami sieci, o wiele większymi szybkościami transferu danych, niż w systemach czwartej generacji oraz zapewniać będą większą niezawodność działania. Te wszystkie cechy, jak i możliwość zapewnienia nowych usług wymagać będą znacznie szerszych pasm częstotliwości niż wykorzystywane dotychczas przez systemy generacji niższych (4, 3 i 2). Pasma takie dostępne są obecnie głównie w zakresach fal centymetrowych i milimetrowych. Zanim jednak odpowiednie zakresy częstotliwości zostaną uzgodnione do wykorzystania dla potrzeb systemów 5G, należy oszacować wielkość niezbędnych do tego celu zasobów widmowych. 2. ZAŁOŻENIA PROCESU PRZEZNACZANIA WIDMA DLA UŻYTKU PRZEZ SYSTEMY 5 G Użytkowanie wyższych zakresów w widmie częstotliwości radiowych łączy się zazwyczaj możliwością wykorzystania szerszych pasm, co pozwala na szybki transfer danych z mniejszymi zasięgami stacji, natomiast niższych - z koniecznością użytkowania węższych kanałów, co powoduje spadek przepływności transmisji i ograniczenie natężenia ruchu radiowego. Zakresy częstotliwości, które przewiduje się przeznaczyć do użytku przez systemy 5G można podzielić na następujące kategorie: 1. Poniżej 6 GHz a. pomiędzy 700 (600) MHz a 1000 MHz, b. pomiędzy 1 GHz a 6 GHz. 2. Powyżej 6 GHz a. pomiędzy 6 GHz a 30 GHz, b. pomiędzy 30 GHz a 100 GHz. Podstawowym problemem, z którym należy się zmierzyć jest konieczność zapewnienia odpowiednio szerokiego pasma do transmisji danych. Poniżej 6 GHz niezmiernie trudno jest znaleźć takie zakresy częstotliwości, które umożliwiają wykorzystanie odpowiednio szerokich kanałów radiowych, szczególnie trudna sytuacja panuje na częstotliwościach poniżej 1 GHz, gdzie systemy 5G (użytkowane np. dla potrzeb Internetu rzeczy) mogą liczyć praktycznie jedynie na kanały dywidendy cyfrowej (chyba, że zwolnione zostaną dodatkowo zakresy uż więcej »

PRZYSPIESZENIE ESTYMACJI RUCHU ORAZ WYBORU PODZIAŁU CU W KODERZE HEVC - DOI:10.15199/59.2017.6.76
Krzysztof Klimaszewski Damian Karwowski Olgierd Stankiewicz Jakub Stankowski Krzysztof Wegner Tomasz Grajek 
Kodowanie sekwencji wizyjnych z użyciem kodera HEVC [2][9] jest czasochłonne [8]. Nieosiągalna dla wcześniejszych metod kodowania sekwencji wizyjnych efektywność kodowania okupiona jest wielokrotnym wydłużeniem czasu kodowania sekwencji, w porównaniu ze starszymi metodami. Jest to na tyle dotkliwe, że aby ułatwić rozpowszechnienie techniki HEVC, konieczne jest przyspieszenie procesu kodowania. W ostatnich dwóch latach, w związku z wprowadzeniem techniki HEVC, problem przyspieszenia kodowania jest niezwykle silnie eksploatowanym polem badań naukowych i obszarem licznych wdrożeń opracowanych metod. Najważniejszym celem, stawianym przez badaczy, jest uzyskanie wyraźnego zmniejszenia złożoności obliczeniowej procesu kodowania międzyobrazowego, w tym sposobu wyznaczania wektorów ruchu oraz sposobu wyboru podziału bloków kodowania. Problem redukcji złożoności obliczeniowej procesu estymacji ruchu dotyczył również wcześniejszych technik, a opracowane dla nich metody, jak choćby te opisane w [3] są odpowiednio adaptowane i stosowane również w koderze nowej techniki HEVC, czyli w oprogramowaniu HM [7]. W artykule [6] i wcześniejszym [5], opisana została metoda wyznaczania podziałów bloków kodowania na podstawie złożonej analizy statystycznej. Dane statystyczne potrzebne do prawidłowego działania tej metody wymagają jednak fazy treningowej dla każdej sekwencji. Autorzy pokazują, że ich metoda daje do 60% przyspieszenia procesu kodowania przy nieznacznym wzroście prędkości bitowej generowanego strumienia. W artykule [11] autorzy prezentują metodę przyspieszenia procesu wyboru sposobu kodowania bloków obrazu z wykorzystaniem statystycznych zależności dotyczących sąsiednich bloków, dla których wybrany już został sposób kodowania. Metoda pozwala na zakończenie procesu podziału bloku w momencie uzyskania odpowiednio niskiej wartości funkcji kosztu, uwzględniając funkcje kosztu dla sąsiednich zakodowanych bloków. Przyspieszenie uzyski więcej »

ROZWIĄZANIE PODNOSZĄCE DOSTĘPNOŚĆ I NIEZAWODNOŚĆ TRANSMISJI DANYCH W URZĄDZENIACH MOBILNYCH WYKORZYSTYWANYCH PRZEZ STRAŻ GRANICZNĄ DO KONTROLI TOŻSAMOŚCI PODRÓŻUJĄCYCH - DOI:10.15199/59.2017.6.31
Henryk Gierszal Mateusz Rajewski Łukasz Kiedrowski Dariusz Korzeniowski Piotr Tyczka Maria Urbańska 
Od coraz większej liczby aplikacji i usług wykorzystywanych w sieciach telekomunikacyjnych przez użytkowników wymaga się wysokiej dostępności czy pewności działania. Istnieje wiele metod zapewnienia tych pozafunkcjonalnych wymagań, które mogą być realizowane na poziomie poszczególnych komponentów sieciowych (np. redundancja istotnych modułów sprzętowych) albo też kompleksowo na poziomie całej sieci (ang. resilience) [1]. Dla zapewnienia ciągłości transmisji z/do radiowego urządzenia końcowego stosuje się różne rozwiązania techniczne. Niezawodność w dostępie do sieci można zapewnić wprowadzając redundancję sprzętową w odniesieniu do modemów transmisyjnych albo gwarantując nadmiarowość w zakresie wyboru sieci wykorzystywanych na potrzeby transmisji. W przypadku urządzeń mobilnych popularnym rozwiązaniem jest stosowanie dwóch kart SIM, dzięki czemu możliwy jest dostęp do sieci dwóch operatorów (wskazane jest, aby byli to operatorzy wykorzystujący różną infrastrukturę sieciową). Jeśli terminal posiada dwa moduły radiowe możliwe jest uzyskanie nie tylko większej dostępności i niezawodności działania, ale także większej przepływności, która będzie superpozycją przepływności cząstkowych uzyskiwanych z obu modemów, co można porównać do rozwiązań w sieciach 3G i 4G oferujących agregację kanałów radiowych. Z tego powodu częstym rozwiązaniem wykorzystywanym w różnych systemach transmisyjnych stają się urządzenia wielofunkcyjne, które są w stanie obsłużyć transmisję danych z wykorzystaniem różnych technik teletransmisyjnych, np. przewodowej Ethernet udostępnianej przez modem xDSL (ang. Digital Subscriber Loop) albo PON (ang. Passive Optical Network), czy bezprzewodowej bazując na sieciach telefonii komórkowej lub systemach satelitarnych [6]. W dziedzinie elektroniki użytkowej i przemysłowej obserwuje się rosnące zapotrzebowanie na systemy wbudowane (ang. embeded). Wzrasta także potrzeba wykorzystywania systemów o dużym stopniu inte więcej »

Rozwój techniki 5g - od koncepcji do produktu - DOI:10.15199/59.2017.6.3
Jacek Góra 
Siłą napędową postępu są koncepcja oraz potrzeba. Skuteczne wdrożenie innowacyjnych rozwiązań wymaga współistnienia obu tych czynników. Nie inaczej jest w przypadku rozwoju systemów telekomunikacyjnych. Prace innowacyjne realizuje się ustawicznie. Nowatorskie rozwiązania są kumulowane do czasu osiągnięcia masy krytycznej, która, wraz z równolegle rosnącymi oczekiwaniami i potrzebami użytkowników, uruchamia proces standaryzacji i wdrożenia kolejnej generacji systemu. Dla systemów radiokomunikacji mobilnej takie cykle trwają około 10 lat. Komercyjna sieć komórkowa pierwszej generacji (1G) została uruchomiona w 1979 roku. Na początku lat 90. XX wieku rozpowszechnił się system drugiej generacji (2G) - GSM (Global System for Mobile Communications). Po kolejnych 10 latach, na przełomie XX i XXI wieku, stworzono system trzeciej generacji (3G) - UMTS (Universal Mobile Telecommunications System). W 2009 roku uruchomiono natomiast pierwszą sieć czwartej generacji (4G) - LTE (Long Term Evolution). Podążając tym trendem, już około roku 2020 (za 3 lata!) można się spodziewać uruchomienia pierwszych sieci piątej generacji (5G). U progu wdrożenia systemu 5G mamy niezwykłą możliwość doświadczenia procesu innowacji toczącego się na naszych oczach. Jest to proces, który nie następuje pod wpływem chwiloPRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XC  WIADOMOŚCI TELEKOMUNIKACYJNE  ROCZNIK LXXxVI  nr 5/2017 173 NOWE WYZWANIA Aby sprostać wszystkim oczekiwaniom, system 5G oparto na kilku zaawansowanych koncepcjach technicznych. Są to m.in.: - wykorzystanie nowych pasm częstotliwościowych w zakresie tzw. fal milimetrowych, które zapewniają dostęp do setek MHz widma radiokomunikacyjnego; - zaawansowane techniki wieloantenowe (massive MIMO - mMIMO) wraz z powszechnym wykorzystaniem transmisji do wielu użytkowników jednocześnie (Multi-User MIMO - MUMIMO); - nowy interfejs radiowy oparty na bardzo krótkich interwałach transmisy więcej »

SKUTECZNOŚĆ ALARMOWANIA MORSKICH RADIOPŁAW AWARYJNYCH LEOSAR - DOI:10.15199/59.2017.6.51
Karol Korcz 
Podstawową funkcją Światowego Systemu Morskiej Łączności Alamowej i Bezpieczeństwa bal Maritime Distress and Safety System nie w niebezpieczeństwie, rozumiane jako nadanie przez statek morski, jak najprostszy sposób, domości o tym, iż statek lub załoga potrzebują natyc miastowej pomocy (alarmowanie zawiera jedynie ide tyfikację i pozycję jednostki), a pozwalające na wykrycie i lokalizację miejsca zdarzenia [1, 3]. Skuteczne wykrywanie i lokalizacja katastrof mo skich ma bardzo ważne znaczenie za poszukiwawczo-ratowniczych - SAR scue) jak i potencjalnych ocalałych. Badania pokazują, że szansa uratowania ocalałych z katastrof (tzw. wskaźnik przeżycia) drastycznie spada z upływem każdej godziny prowadzonej akcji SAR. i dokładna statku morskiego znajdującego się w sytuacji bezpośredniego zagrożenia, obniżyć zarówno koszty służby SAR, niebezpiecznych warunkach, jak i wyraźnie poprawić skuteczność prowadzonych akcji SAR powyższe, każde działanie, aby skrócić czas wymagany Poznań, 21 EFFECTIVENESS OF THE ALARMS OF THE LEOSAR EMERGENCY POSITION-INDICATING RADIO BEACONS podstawy funk- LEOSAR. Opisano ope- EOSAR. COSPASThe radiokomunikacja morska, GMDSS, radiocommunications, GMDSS, - GMDSS (Global System) jest alarmowanie , w krótkiej wiazałoga natych- iden- , ykrywanie morzarówno dla służb (Search And Re- morskich Ponadto, szybka a lokalizacja może znacząco ich czas pracy w SAR. Uwzględniając do wykrycia, osób potrzebujących pomocy, jest w 2. SYSTEM COSPAS Sygnał alarmowania w niebezpieczeństwie nadany przez morską radiopławę awaryjną - tion Indicating Radio Beacon MHz, określenie niebe pieczeństwie, sy tem COSPAS-SARSAT [3]. System ten może wykorz stywać satelity geostacjonarne (mówimy o systemie GEOSAR - Geostationary Earth Orbit for Search And Rescue) lub niskoorbitalne (mówimy o systemie LEOSAR - Low-Earth Orbit for Search And Rescue). Poniższy artykuł dotyczy cujących z satelitami niskoorbitalnymi (nazy więcej »

SPFR - METODA PONOWNEGO WYKORZYSTANIA PASMA W SYSTEMACH RADIOKOMUNIKACYJNYCH NOWEJ GENERACJI - DOI:10.15199/59.2017.6.22
Sławomir Gajewski 
Interferencje międzykomórkowe (ang. Inter-Cell Interference - ICI) stanowią jeden z największych problemów w sieciach komórkowych nowej generacji. Wykorzystywanie tych samych kanałów częstotliwościowych we wszystkich komórkach powoduje interferencje w obszarach granicznych komórek, które w sposób destruktywny wpływają na jakość sygnałów odbieranych i pojemność łączy radiowych oraz ograniczają efektywność widmową transmisji. Jest to problem szczególnie ważny dla transmisji w łączu w dół, od stacji bazowych (SB) do ruchomych (SR) [2, 5, 6]. W systemie LTE/LTE-Advanced stosuje się metody niepełnego-ponownego wykorzystania pasma w komórkach (ang. Fractional Frequency Reuse - FFR), które mają na celu zmniejszenie skutków interferencji i zwiększenie ogólnej wydajności interfejsów radiowych stacji ruchomych znajdujących się w obszarach granicznych komórek. Metody te w ogólności polegają na inteligentnym przydziale pasma częstotliwości w sposób zmniejszający wpływ ICI na jakość sygnału, a tym samym na pojemność sieci. W ogólności metody FFR polegają na specyficznym przydziale pewnej części pasma dla połączeń w obszarach granicznych komórek. Znane są dwie główne metody SFR i PFR [1, 3, 4]. Są to metody potencjalnie użytkowane przez operatorów komórkowych i każda z nich posiada szereg zalet i wad, co determinuje ich użycie w praktyce. Istnieją także inne rozwiązania szeroko publikowane w literaturze i na ogół bazujące na tych dwóch metodach, stanowiące ich rozszerzenie bądź usprawnienie [3]. 2. METODA SPFR Metoda SPFR łączy w sobie cechy obu stosowanych w praktyce metod PFR i SFR. Główną zaletą proponowanej metody jest zwiększenie pojemności komórki w jej obszarze granicznym (ang. Boundary Area of Cell - BAC). Odbywa się to, podobnie jak w metodzie PFR, kosztem pojemności w obszarze centralnym komórki (ang. Central Area of Cell - CAC). Podstawą SPFR jest podejmowanie decyzji odnośnie przydziału zasobów fizycznych dla każdej sta więcej »

STANOWISKO DO BADAŃ SYSTEMÓWMIMO WIELKIEJ SKALI W PAŚMIE MIKROFALOWYM I SUBTERAHERCOWYM - DOI:10.15199/59.2017.6.28
Grzegorz Bogdan Konrad Godziszewski Paweł R. Bajurko Yevhen Yashchyshyn 
Technika MIMO (ang. multiple input multiple ou put) pozwala na znaczące zwiększenie pojemno łu radiowego w warunkach propagacji wielodrogowej dzięki czemu upowszechniła się w ostatnich latach i jest stosowana w wielu systemach radiokomunikacyjnych, np. IEEE 802.11, WiMAX, LTE. Możliwo nia techniki MIMO zależy w znacznym ściwości kanału radiowego. Do jego można wykorzystać macierz H, która zawiera informacje o amplitudzie i fazie składowych wielodrogowych między antenami nadajnika i odbiornika wynikające z zastosowania techniki MIMO sze, im mniejsza jest korelacja wzajemna elementów , jaszczyszyn}@ire.pw.edu.pl Poznań SYSTEMÓW MIMO W PAŚMIE MIKROFALOWYM I SUBTERAHERCOWYM IN MICROWAVE AND RANGE posystemów w zakre- . dzięki czemu rodowiska wy- ca pozorowanie norodnych żliwości pomiarowych badania characteri- is presented. The for precise posisetup allows to measure ties have : propagacja, outkszenie pojemności kanaw wielodrogowej, żliwość zastosowanym stopniu od włajego charakteryzacji ponadajnika [1]. Korzyści są tym więkim macierzy H. Określenia możliwo danych warunkach propagacyjnych pomocą badań transmisyjnych powiedzi impulsowej kanału radiowego nymi parami anten. Obecnie coraz większym zainteresowaniem ze strony świata nauki i przemysłu ciesz MIMO wielkiej skali (ang. m MIMO), która jest rozwinięciem idei techniki MI Dzięki dużej liczbie (rzędu setek możliwe jest jednoczesne przesyłanie sygnałów ze stacji bazowej do Przynosi to liczne korzyści, w tym ści widmowej oraz pojemności systemu ka MIMO wielkiej skali jest przewidywana do zastos wania w sieciach piątej generacji 5G doniesieniach literaturowych opisano konstrukcje lini wych, planarnych, cylindrycznych dów antenowych [5], [6] oraz empiryczne badania kan łu propagacyjnego. Pomiary charakterystyk kanału r diowego przeprowadzane były najcz stych środowiskach wewnątrz czeń [4], [8] albo w komorze rewerberacyjnej szczegółowo opisano odmienn więcej »

Steganografia radiowa - zagrożenia i wyzwania - DOI:10.15199/59.2017.6.2
Zbigniew Piotrowski Jan M. Kelner 
Współczesne systemy telekomunikacyjne oraz teleinformatyczne coraz częściej wykorzystują różnego rodzaju techniki i algorytmy zabezpieczenia informacji. W zależności od celu zabezpieczenia, stosowane są różnego typu metody. Najbardziej popularnym sposobem zabezpieczania informacji jest zabezpieczenie kryptograficzne. Kryptografia (cryptography) ma na celu przekazywanie informacji tylko do docelowego odbiorcy, zabezpieczając ją jednocześnie przed niepowołanym dostępem. W tym przypadku fakt transmisji informacji jest jawny, ale dostęp do jej zawartości jest ograniczony. Inny cel przyświeca technikom zaliczanym do metod ukrywania informacji/danych (information/data hiding methods). Uogólniając, można powiedzieć, że metody te służą do ukrywania dodatkowych informacji w jawnie przesyłanych danych. W literaturze tematu można znaleźć różnego rodzaju techniki ukrywania informacji w nośnikach elektronicznych, zarówno w plikach, jak i strumieniach multimedialnych (audio, wideo, obrazach, tekście) lub innych formach dokumentów elektronicznych. Dodawanie do oryginalnego nośnika dodatkowych skrytych danych może mieć różne zastosowanie. Rys 1 ilustruje podstawową klasyfikację metod ukrywania informacji, którą przedstawiono w [1]. Wymienione cztery kategorie są ze sobą powiązane. Pojęcia ukrytych kanałów oraz steganografii są bardzo często traktowane jako synonimy. Otóż każdy typ steganografii zapewnia pewien logiczny kanał ukryty w rzeczywistym kanale transmisyjnym. Taki kanał może być rozpatrywany zarówno w strumieniu danych multimedialnych, w protokole transmisyjnym, jak również w sygnale radiowym warstwy fizycznej. Mechanizm komunikacji z zachowaniem anonimowości jest czasami wykorzystywany przez użytkowników Internetu, np. w celu ukrycia swojej tożsamości w trakcie tajnego głosowania realizowanego w czasie rzeczywistym. Anonimowość nie jest jednak zbyt popularna. Wynika to z faktu, że mechanizmy tego typu mogą zostać szybko przeciążo więcej »

STEROWANIE KODEREM HEVC WYKORZYSTUJĄCE USUWANIE SZUMÓW - DOI:10.15199/59.2017.6.77
Krzysztof Klimaszewski Damian Karwowski Olgierd Stankiewicz Jakub Stankowski Krzysztof Wegner Tomasz Grajek 
Postęp w rozwoju technik kompresji pozwala coraz bardziej efektywnie reprezentować obraz ruchomy. Najnowszą metodą kodowania opisaną w normach ISO/IEC oraz ITU jest technika HEVC [8]. Względem poprzedniej techniki AVC, HEVC pozwala uzyskać około 50% redukcję strumienia przy zachowaniu tej samej jakości [6]. Tak duży wzrost efektywności wynika ze znacznego rozwoju narzędzi kompresji dostępnym dla kodera. Przykładowo, wyliczyć można [3], iż dla jednostki kodowania LCU (Largest Coding Unit) koder HEVC ma do wyboru około 48 ∙ 1018 różnych kombinacji podziałów CU, TU, PU, 33 kierunki predykcji intra, oraz dwie listy referencyjne ze zmiennymi obrazami w predykcji inter. Z tego względu wybór trybów podczas kodowania jest jeszcze bardziej złożony niż w przypadku wcześniejszych technik, np. AVC. Wśród wszystkich dostępnych możliwości, koder poszukuje optymalnego zestawu trybów, które zmaksymalizowałyby stosunek jakośćprzepływność. Przejrzenie wszystkich możliwości w skali całego obrazu jest praktycznie niemożliwe i dlatego najczęściej wybór trybów optymalizuje się jedynie lokalnie na poziomie jednej jednostki LCU. Podejście takie jest zastosowane np. w oprogramowaniu modelowym HEVC grupy JCT-VC - HM [5]. Problem szybkiego wyboru trybów w jednostkach LCU kodera HEVC jest obecnie przedmiotem licznych prac naukowych (wyniki takich prac znaleźć można w publikacjach [9-26]), jednak prace te zakładają odmienny scenariusz kodowania obrazów w stosunku do tego który jest rozważany w tej pracy. Najszerszym zastosowaniem koderów wizyjnych jest kodowanie sekwencji naturalnych, rejestrowanych kamerami. Sekwencje takie charakteryzuje występowanie w nich szumu, w sposób nieunikniony powstającego w układach elektronicznych kamery. Szum jest w większości przypadków niepożądanym zakłóceniem, degradującym jakość sekwencji. Z kolei z perspektywy wyboru trybów, występowanie szumu w obrazie powoduje, że w danej jednostce CU wybierana jest taka więcej »

SYMULACJA SZEROKOPASMOWEGO GENERATORA SYGNAŁÓW ZAKŁÓCAJĄCYCH DLA POTRZEB OCHRONY PRZED RC-IED - DOI:10.15199/59.2017.6.85
Jarosław Magiera 
Jedną z kluczowych kwestii w przeciwdziałaniu działalności terrorystycznej jest efektywna detekcja i neutralizacja improwizowanych ładunków wybuchowych - IED (ang. Improvised Explosive Device). Tego rodzaju ładunki są używane zarówno na terenach objętych działaniami wojskowymi, a także mogą być narzędziem do realizacji zamachów terrorystycznych wymierzonych w ludność cywilną. Istotną grupę ładunków improwizowanych stanowią te detonowane zdalnie drogą radiową, tzw. RCIED. Do ich realizacji zwykle są stosowane ogólnodostępne odbiorniki stanowiące urządzenia elektroniki użytkowej (np. radiotelefon) lub ich elementy. Zapewnienie ochrony przed wybuchem ładunków RC-IED jest możliwe poprzez zakłócanie transmisji wyzwalających detonację, czyli wytworzenie tzw. kurtyny elektromagnetycznej. Do efektywnego zagłuszenia sygnału jest wymagane, aby moc zakłócenia na wejściu odbiornika była znacząco większa od mocy sygnału użytecznego. Wielkość obszaru objętego ochroną przed detonacją ładunku jest zatem zależna m.in. od mocy nadajnika zagłuszającego, a także od charakterystyki kierunkowej anteny nadawczej. W związku z tym, że w ogólności nie jest znane dokładne pasmo częstotliwości sygnału inicjującego wybuch, zagłuszanie powinno być realizowane w możliwie szerokim zakresie częstotliwości, co stanowi jedno z głównych wyzwań dla praktycznej realizacji generatora kurtyny EM. Z drugiej strony, kurtyna nie powinna uniemożliwiać komunikacji radiowej służb uczestniczących w akcji antyterrorystycznej. Zatem jest wymagane, aby w przedziale częstotliwości sygnału zakłócającego można było dynamicznie definiować podpasma chronione, w których moc zakłócenia jest znacząco zredukowana. Niniejszy referat został poświęcony zagadnieniu symulacji działania generatora zakłóceń szerokopasmowych z uwzględnieniem efektów występujących w rzeczywistym urządzeniu i determinujących kształt widma nadawanego sygnału. W kolejnej części referatu zawarto podstawowe więcej »

SYNCHRONIZACJA POMIARÓW W SIECI ZIGBEE DLA APLIKACJI W DIAGNOSTYCE MASZYN - DOI:10.15199/59.2017.6.19
Jan Macheta Łukasz Krzak Mateusz Kubaszek Cezary Worek 
Diagnostyka maszyn jest jedną z aplikacji, gdzie spotykane są systemy oparte o rozproszoną sieć czujników (m.in. pomiar wibracji, temperatury, prędkości obrotowej itp.), komunikujące się w sposób bezprzewodowy. Pożądane cechy tego typu sieci telekomunikacyjnych obejmują możliwość pracy w dynamicznej topologii kratowej, stosowania urządzeń zasilanych bateryjnie oraz zapewnienia możliwie dużego zasięgu łączności, nawet kosztem zmniejszenia efektywnej przepływności. Jednym z protokołów, spełniającym ww. założenia i możliwym do zastosowania w tego typu aplikacjach jest ZigBee PRO Szczególnie interesująca jest możliwość jego wykorzystania w paśmie sub-GHz (w Europie jest to zakres 868.0-868.6MHz), co w znacznym stopniu zwiększa zasięg pojedynczego łącza radiowego w stosunku do bardziej popularnej warstwy fizycznej pracującej w pasmie 2.4GHz. Dokładna analiza zastosowania tego typu sieci w aplikacjach diagnostyki maszyn ujawnia jednak jeszcze jedno wymaganie, które jest istotne w przypadku stosowania algorytmów diagnostycznych wykorzystujących korelacje sygnałów z wielu punktów pomiarowych. Aby minimalizować konsumpcję energii zasilającej i zajętość kanału transmisyjnego, pomiary w tego typu sieciach wyzwalane są okresowo. Kluczowe jest zatem wyzwolenie ich możliwie jednocześnie, przy czym wymagana dokładność zależy od przyjętych metod pomiarowych. W prezentowanej aplikacji wymagano aby maksymalny rozrzut czasu pomiarów był mniejszy od 1 𝑚𝑠. Pociąga to za sobą konieczność zapewnienia odpowiednio precyzyjnej synchronizacji czasu pomiędzy węzłami sieci. Ponadto, ze względu na korelację danych z czujników, istotne jest także oszacowanie niepewności synchronizacji, która w znacznym stopniu zależy od pozycji węzła w sieci propagacji czasu. Niniejszy artykuł prezentuje praktyczne podejście do implementacji protokołu synchronizacji czasu w niskomocowej sieci sensorowej wykorzystującej protokół ZigBee PRO. 2. PRACE więcej »

SYSTEM DO ŚLEDZENIA WZROKU W WARUNKACH CODZIENNYCH - DOI:10.15199/59.2017.6.103
Adam Strupczewski 
Śledzenie kierunku wzroku człowieka jest ekscytującą technologią, która ma ogromny potencjał zastosowań. Wsparcie dla kierowców, wsparcie dla niepełnosprawnych czy też bardziej wydajne interfejsy człowiek-komputer to tylko kilka ich przykładów. Nie dziwi więc wielka ilość badań wykonywana w tym temacie. Jak wskazują dostępne w tej tematyce przeglądy [4], próbowano bardzo wielu różnych podejść. Zasadniczo kierunek wzroku człowieka zależy od orientacji głowy oraz orientacji oczu. W najbardziej rozpowszechnionym komercyjnym podejściu wykorzystującym diody podczerwone pomijany jest pierwszy problem, gdyż obserwując refleksy IR można bezpośrednio wyznaczyć trójwymiarową orientację oczu [5]. To podejście sprzedawane komercyjnie przez kilka firm wymaga jednak specjalistycznego i drogiego sprzętu. W metodzie proponowanej przez autora, bazującej wyłącznie na zwykłej kamerze RGB, konieczne jest uwzględnienie pozy głowy. Szczegóły metody podane są w kolejnych rozdziałach. 2. PROPONOWANA METODA Proponowana metoda zakłada, że kierunek wzroku jest wyznaczony jako prosta przecinająca środek oka oraz środek źrenicy. Punkt skupienia wzroku jest wówczas miejscem gdzie owa prosta przecina obserwowany ekran. Jako że środek źrenicy jest z bardzo dobrym przybliżeniem środkiem tęczówki, można go określić znajdując w obrazie tęczówkę. To z kolei wykonuje się dopasowując okrąg bądź elipsę do widocznych na obrazie krawędzi. W przeciwieństwie do rozpowszechnionych metod statystycznych, dokładność proponowanej metody wyznaczania punktu skupienia wzroku nie jest ograniczona sposobem obliczeń. Jeśli na wejście algorytmu będzie podana bardzo dokładna pozycja środka oka i środka tęczowki, to wyznaczony punkt skupienia wzroku również będzie bardzo dokładny. To, co może być w obrazie bezpośrednio zmierzone to pozycje środków tęczówek w pikselach. Kluczowym pytaniem jest więc jak wyznaczyć współrzędne 3D środków tęczówek i środków oczu. W proponowanym więcej »

SZEREGOWANIE TRANSMISJI WIADOMOŚCI TYPU BSM W CELU POPRAWY DZIAŁANIA KOOPERACYJNEGO ADAPTACYJNEGO TEMPOMATU - DOI:10.15199/59.2017.6.45
Paweł Sroka Marcin Rodziewicz Michał Sybis Adrian Langowsk i Karolina Lenarska Krzysztof Wesołowski 
Wzrastająca liczba pojazdów korzystających z dróg oraz związany z tym szybki rozwój usług i metod optymalizacji ich ruchu doprowadziły do powstania mechanizmu adaptacyjnego tempomatu - ACC (ang. adaptive cruise control). Jego zadaniem jest utrzymanie odpowiedniego odstępu do samochodu poprzedzającego tylko na podstawie wyników pomiarów z czujników znajdujących się w pojazdach. Dzięki temu możliwe jest podniesienie przepustowości dróg przez zmniejszenie odległości między pojazdami oraz zwiększenie bezpieczeństwa pasażerów w porównaniu z sytuacją, gdzie za ruch samochodu odpowiada tylko kierowca. Naturalnym zastosowaniem metody adaptacyjnego tempomatu jest wprowadzenie autonomicznego ruchu pojazdów na drogach, w którym grupa samochodów przemieszcza się razem w formie konwoju przewodzonego przez pojazd tzw. lidera. Według danych zaprezentowanych w [1], poruszanie się w konwoju może zwiększyć przepustowość drogi z 2200 pojazdów/godzinę do nawet 4000 pojazdów/godzinę. Jednak zastosowanie mechanizmów ACC wymaga łącznego użycia algorytmów sterowania silnikiem i przetwarzania danych z czujników, które mogą być obarczone błędami. Dodatkowo, sensory ruchu takie jak RADAR czy LIDAR, przekazują informacje na temat parametrów sąsiednich pojazdów z pewnym opóźnieniem, co znacząco wpływa na możliwości zmniejszenia odległości między samochodami. W przypadku rozwiązania ACC dystans dzielący kolejne pojazdy zależny jest od ich prędkości i w związku z tym wyrażany jest najczęściej w formie czasu potrzebnego do przebycia dzielącej ich odległości. Ze względu na ograniczone możliwości urządzeń pomiarowych zaproponowano rozszerzenie ACC zwane kooperacyjnym adaptacyjnym tempomatem - CACC (ang. cooperative adaptive cruise control), które poza danymi z czujników wykorzystuje też wymianę informacji drogą radiową. Jednym z rozważanych rozwiązań jest aktualizacja danych dotyczących prędkości oraz przyspieszenia pojazdów lidera oraz poprzedzającego więcej »

SZYBKIE TRANSKODOWANIE STRUMIENI HEVC POPRZEZ ELIMINACJĘ SKWANTOWANYCH WSPÓŁCZYNNIKÓW TRANSFORMATY O WARTOŚCI JEDEN - DOI:10.15199/59.2017.6.60
Krzysztof Wegner Damian Karwowski Tomasz Grajek Krzysztof Klimaszewski Jakub Stankowski Olgierd Stankiewicz 
Transmisja obrazów w sieciach teleinformatycznych wymagać może zastosowania ściśle określonej wartości prędkości bitowej dla zakodowanego strumienia danych, który te obrazy reprezentuje. Poszczególne systemy transmisji obrazów (np. systemy mobilne, systemy telewizji cyfrowej, transmisja w internecie), stawiają jednak odmienne wymagania na prędkość bitową przesyłanych danych. Koncepcyjnie najprostszym rozwiązaniem tego problemu jest wielokrotna kompresja obrazów dla różnej prędkości bitowej. Jednakże przechowywanie wszystkich strumieni bitowych wymaga ogromnych pamięci masowych, co jest istotnym problemem. Odmiennym podejściem jest przechowywanie jednego tylko strumienia źródłowego, i późniejsze transkodowania na żądanie (On-Demand Transcoding) tego strumienia do wymaganej przez widza prędkości bitowej. Takie podejście staje się coraz bardziej powszechne ze względu na małe wymagania na pamięć i wciąż rosnące zasoby obliczeniowe w chmurze. Rozwiązanie z transkodowaniem zakodowanych wcześniej obrazów wymaga jednak szybkich, i zapewniających wysoką jakość transkoderów obrazu. 2. ANALIZA TRANSKODOWANIA HEVC Klasyczny transkoder obrazów jest prostym, szeregowym zestawieniem dekodera obrazów, który dokonuje dekompresji zakodowanego wcześniej strumienia, oraz kodera obrazów, który realizuje ponowną kompresję obrazów uwzględniając wymagania nałożone na parametry zakodowanego strumienia danych (np. prędkość bitowa nowego strumienia). Jednak stosowane w klasycznym transkoderze pełne kodowanie obrazów jest głównym powodem jego bardzo wysokiej obliczeniowej złożoności. Z perspektywy określonych zastosowań, np. działające na baterii systemy mobilne, ta wysoka złożoność jest ogromnym problemem. Z tego powodu powstają nowe projekty transkoderów, dzięki którym udaje się tę wysoką złożoność istotnie zmniejszyć. Cel ten osiąga się pomijając pewne kroki dekodowania zakodowanego strumienia lub upraszczając sam koder, który dokonuje ponown więcej »

THE REQUIREMENTS AND DESIGN CHALLANGES FOR NEXT GENERATION BASE STATIONS FOR 5G WIRELESS SYSTEMS - DOI:10.15199/59.2017.6.8
Paweł Gałka Marcin Rybakowski John Paul Torregoza Tomasz Wierzbowski 
Wireless communication evolves from generation to generation by developing various key technologies, strategies, and principles to handle challenges arising therein. The dramatic growth in the number of smartphones, tablets, wearables, and other data-consuming devices, coupled with the advent of enhanced multimedia applications, has resulted in a tremendous increase in the volume of mobile data traffic. According to industry estimates, this increase in data traffic is expected to continue in the coming years and around 2020 cellular networks might need to deliver as much as 100-1000 times the capacity of current commercial cellular systems [1]. Therefore the attention of the mobile research community is now shifting towards what will be the next set of innovations in wireless communication technologies, which we will refer to collectively as 5G (fifth-generation technologies). Given a historical 10-year cycle for every generation of cellular advancement, it is expected that networks with 5G technologies will be deployed around 2020 [1]. The 5G networks will consist of different network elements but still as in the previous cellular technologies the base station is the main important node with many tasks and responsibilities. In the paper we discuss the main requirements of next generation (5G) base stations and emphasize the design challenges set by new 5G technologies. 2. 5G USE CASES AND MAIN REQUIREMENTS AND CHALLENGES FOR 5G RADIO NETWORKS It is envisioned that new technology and future services will have significant influence on societies, transforming the ways they function. Exact services and ways are not defined and most of them are to be invented in coming years. Yet, we can try to imagine which drivers and demands will have impact on development of these services and use cases. Therefore, telecom community is making an effort of categorizing and defining most probable future use cases in order to properly addre więcej »

TRYB PRACY URZĄDZENIA DRUKUJĄCEGO A SKUTECZNOŚĆ ATAKU TYPU TEMPEST - DOI:10.15199/59.2017.6.86
Ireneusz KUBIAK 
Ochrona informacji, pod każdą postacią jaką by ona nie występowała, jest zagadnieniem niezwykle istotnym. Dotyczy to zwłaszcza obecnych czasów, kiedy bardzo często spotykamy się z zagadnieniami związanymi z tzw. wojną informacyjną. W tym celu wykorzystywane są przechwycone informacje (bardzo często w sposób nielegalny), które bardzo często stanowią element szantażu i zastraszania. Dlatego, będąc w posiadaniu informacji dla nas szczególnie istotnych, wrażliwych, musimy je chronić przed utratą i ujawnieniem przez ludzi szukających sensacji [12]. Bardzo dużo możemy usłyszeć o szpiegowskich programach i o możliwości utraty naszych informacji na rzecz osób trzecich poprzez podłączenie naszego komputera do sieci Internet. Uważamy przy tym, że nie korzystając z Internetu jesteśmy w pełni bezpieczni. Okazuje się jednak, że takie myślenie jest błędne. Każde urządzenie, w tym również nasz komputer, podczas pracy jest źródłem wielu emisji elektromagnetycznych: promieniowanych i przewodzonych. Emisje te mogą w sposób niekontrolowany rozchodzić się w otaczającą przestrzeń lub wzdłuż przewodów sieci zasilania. Niektóre z tych emisji mogą być skorelowane z przetwarzaną informacją [3, 4]. Charakter ich zmian może odpowiadać zmianom sygnału elektrycznego pod postacią, którą występuje nasza informacja wyświetlana na monitorze komputerowym lub drukowana np. na drukarce laserowej. Najbardziej spektakularne są emisje ujawniające związane z torami graficznymi urządzeń informatycznych. Torami tymi są karta graficzna, medium transmisyjne (kabel) i monitor oraz układ naświetlania bębna światłoczułego drukarki laserowej. W każdym z tych przypadków elektryczny sygnał pierwotny (sygnał użyteczny związany z informacją wyświetlaną na monitorze, sygnał użyteczny sterujący pracą lasera drukarki) przetwarzany w torze graficznym jest sygnałem szeregowym, co w znacznym stopniu ułatwia jego rejestrację [5, 9]. Ponadto, sygnał związany bezpośrednio z in więcej »

WARUNKI UZYSKANIA POPRAWNEGO ODBIORU SYGNAŁU DAB+ W SIECI JEDNOCZĘSTOTLIWOŚCIOWEJ - DOI:10.15199/59.2017.6.82
Ryszard J. ZIELIŃSKI 
We Wrocławiu opracowywany jest projekt jednoczestotliwościowej sieci DAB+. Zasięg sieci powinien obejmować aglomerację wrocławską. Zastosowane zostaną jak najtańsze rozwiązania związane zarówno z dosyłem sygnału do nadajników, tworzeniem multipleksu jak również emisją. Celem projektu jest pokazanie, jakie nakłady inwestycyjne są konieczne do uruchomienia tego typu sieci oraz wskazanie możliwości realizacji relatywnie tanich sieci DAB+ w oparciu o opracowane w ramach projektu elementy systemu nadawczego. 2. WARUNKI UZYSKANIA POPRAWNEGO ODBIORU SYGNAŁU DAB+ W SIECI JEDNOCZĘSTOTLIWOŚCIOWEJ Jednym z elementów, który należy wziąć pod uwagę przy budowie sieci jednoczęstotliwościowej SFN (Single Frequency Network) jest zmiana częstotliwości sygnału DAB+ odbieranego przez poruszający się odbiornik. Zmiana ta spowodowana jest występowaniem efektu Dopplera. Wielkość f tej zmiany częstotliwości można obliczyć ze wzoru (1). c v f f r C    (1) przy czym: f - zmiana częstotliwości środkowej bloku częstotliwo ści DAB+, fC - częstotliwość środkowa bloku częstotliwości DAB+, vr - składowa radialna (w stosunku do nadajnika) prędkości poruszania się odbiornika, c - prędkość światła. Przesunięcie f częstotliwości nie wpłynie w zauważalny sposób na jakość odbioru, jeżeli będzie spełniać warunek (2): f  0,05F (2) przy czym: F - odległość częstotliwościowa pomiędzy podnośnymi Odległość F pomiędzy podnośnymi DAB+ jest ściśle uzależniona od długości TU użytecznego pola symbolu o czasie trwania TS, co przedstawia rysunek 1 i można ją wyznaczyć z zależności (3). Rys. 1.1. Struktura czasowa symbolu w systemie DAB+, TS - czas trwania symbolu, TU - czas trwania użytecznego pola symbolu, TG - odstęp ochronny (prefiks cykliczny) U T F 1   (3) Długość odstępu ochronnego jest ściśle związana z wielkością tmax maksymalnego o więcej »

WERYFIKACJA DOSTĘPNOŚCI SYGNAŁU GALILEO W WYBRANYCH ŚRODOWISKACH PROPAGACYJNYCH W POLSCE - DOI:10.15199/59.2017.6.29
Krzysztof Bronk Rafał Niski Kacper Wereszko 
Galileo to europejski system nawigacji satelitarnej GNSS, odpowiednik amerykańskiego GPS lub rosyjskiego GLONASS. System Galileo jest projektem Komisji Europejskiej, agencji GSA (European GNSS Agency) odpowiedzialnej za udostępnianie serwisów użytkownikom oraz Europejskiej Agencji Kosmicznej (ESA) odpowiedzialnej za stronę techniczną uruchamiania satelitów. Prezentowane w referacie pomiary miały na celu weryfikację dostępności sygnałów Galileo w Polsce oraz ich porównanie z innymi systemami GNSS (GPS, GLONASS), w związku z uruchomieniem pierwszych funkcjonalności systemu Galileo w 2016 roku W trakcie realizacji opisywanych pomiarów na orbitach znajdowało się 18 satelitów Galileo, z czego 11 było w pełni operacyjnych, 2 były w trakcie testowania, 4 w fazie uruchamiania a 1 był nieaktywny [7]. Docelowo do roku 2020 na orbitach umieszczonych zostanie 30 satelitów: 24 aktywne oraz 6 zapasowych. Pomiary zostały zrealizowane w 2016 roku w ramach dotacji celowej pomiędzy Ministerstwem Cyfryzacji a Instytutem Łączności PIB obejmującej prace badawczo- rozwojowe w zakresie systemów łączności satelitarnej oraz systemu GNSS-Galileo. 2. METODOLOGIA BADAŃ Sygnały radiowe wysyłane przez satelity GNSS wykorzystują technikę rozpraszania widma CDMA i w związku z tym poziom ich mocy przy powierzchni Ziemi może być nawet 100-krotnie niższy od mocy szumu termicznego. Bez odpowiedniego skupienia sygnału w odbiorniku nie jest możliwe wykonanie badań z wykorzystaniem standardowych metod pomiarowych, szczególnie, że parametry techniczne analizatorów widma nie pozwalają na pomiary sygnałów, których poziom jest zbliżony lub mniejszy od szumu termicznego. W związku z powyższym do przeprowadzenia pomiarów niezbędne było posiadanie odbiornika sygnałów GNSS, który wykorzystywał usługę Galileo Open Service (pasmo E1: 1575,42 MHz) [4]. Większość odbiorników GNSS dostępnych na rynku jest z zasady przystosowana do pracy z wieloma systemami nawigacyjny więcej »

WPŁYW ALGORYTMÓW DEMOZAIKOWANIA NA DOKŁADNOŚĆ KALIBRACJI SYSTEMÓW WIELOKAMEROWYCH - DOI:10.15199/59.2017.6.74
Hubert Żabiński Krzysztof Wegner Jakub Stankowski Tomasz Grajek 
Systemy wielokamerowe są to systemy składające się ze zbioru kamer, które powinny być precyzyjnie zamontowane oraz dokładnie zsynchronizowane. Systemy takie umożliwiają nagrywanie sekwencji wizyjnych zawierających wiele widoków. Każdy z widoków stanowi sekwencję obrazów zmiennych w czasie. Systemy wielokamerowe stosuje się między innymi w telewizji swobodnego punktu widzenia, stereowizji czy dozorze wizyjnym. Mogą być stosowane także do tworzenia trójwymiarowych modeli obiektów, pomiaru odległości między obiektami lub wielkości przedmiotów. Telewizja swobodnego punktu widzenia (ang. Free viewpoint Television - FTV) [11] jest aktualnie rozwijanym rozwiązaniem, które w przyszłości może stać się konkurencją dla tradycyjnej telewizji. Tradycyjna telewizja oferuje widzowi tylko jeden punkt widzenia, wymuszony przez położenie kamer rejestrujących scenę i decyzje realizatora. Dzięki telewizji swobodnego punktu widzenia, widz dostaje możliwość wyboru dowolnego położenia kamery wirtualnej, ale nie tylko wybranej z dostępnego zbioru kamer. Może wybrać widok sceny, z dowolnego położenia pośredniego. Takie rozwiązanie może znacząco wpłynąć na widowiskowość wielu wydarzeń, między innymi spektakli teatralnych czy wydarzeń sportowych. W niniejszej pracy poruszono tematy związane z kalibracją systemów wielokamerowych oraz demozaikowaniem, gdyż są to dwa początkowe kroki, mające istotny wpływ na dalsze etapy przetwarzania obrazów w systemach wielokamerowych (rys. 1). Rys. 1. Schemat systemu FTV 2. WYBRANE ZAGADNIENIA SYSTEMÓW WIELOKAMEROWYCH 2.1. Kalibracja systemów wielokamerowych Chcąc pracować z systemami wielokamerowymi zawsze musimy dokonać kalibracji systemu (rys. 1) [6]. Niestety, kamery wyprodukowane w tym samym czasie, na jednej linii produkcyjnej, nawet z tej samej serii różnią się między sobą. Wynika to z wielu drobnych różnic, np. inne położenie matrycy względem układu optycznego kamery, czy niedoskonałości samego układu o więcej »

WPŁYW DOKŁADNOŚCI POMIAROWEJ CZUJNIKÓW POKŁADOWYCH NA ZACHOWANIE STEROWANEGO ADAPTACYJNIE KONWOJU POJAZDÓW - DOI:10.15199/59.2017.6.48
Marcin Rodziewicz Adrian Langowski Paweł Sroka Michał Sybis Karolina Lenarska Krzysztof Wesołowski 
Mobilność staje się coraz ważniejszym aspektem naszego życia. Już w minionej dekadzie w niektórych europejskich krajach mieszkańcy podróżowali co najmniej 30 kilometrów dziennie (w przeliczeniu na jedną osobę), przy czym ponad 75% tego dystansu pokonywali za pomocą samochodu. Można więc stwierdzić, że samochód stał się naszym głównym środkiem transportu. Niestety, tak masowe wykorzystanie pojazdów pociąga za sobą szereg problemów związanych głównie z pogorszeniem się płynności jazdy i zwiększeniem zanieczyszczenia powietrza. W ciągu ostatnich lat, zaproponowano i wdrożono wiele mechanizmów mających na celu rozwiązanie wyżej wymienionych problemów. Pojawiły się pomysły w zakresie zwiększenia przepustowości dróg poprzez tworzenie większej ich liczby, zachęcania do korzystania ze wspólnych samochodów (ang. shared cars) czy korzystania z transportu publicznego przez wprowadzenie opłat drogowych. Większość z tych rozwiązań nie przyniosła jednak efektu, ponieważ nie były one w stanie rozwiązać istniejących problemów a jedynie nieznacznie je zmniejszyły. W rzeczywistości, korki stały się bardziej dotkliwe ze względu na rosnącą liczbę pojazdów. Jednym z najbardziej efektywnych sposobów na poprawę tej sytuacji jest zastosowanie tzw. konwoju. Polega on na tworzeniu się grup pojazdów, poruszających się w tym samym kierunku. Dzięki takiemu rozwiązaniu możliwe jest zwiększenie bezpieczeństwa na drogach, zwiększenie przepustowości dróg oraz zmniejszenie zużycia paliwa w pojazdach. Praktyczne wykorzystanie kolumny pojazdów wymaga współdziałania algorytmów sterowania silnikiem, przetwarzania danych z czujników oraz komunikacji bezprzewodowej. Ważnym krokiem w tworzeniu konwojów na drogach było opracowanie układu adaptacyjnego tempomatu (ACC - ang. Adaptive Cruise Control) oraz jego rozszerzenia zwanego kooperacyjnym adaptacyjnym tempomatem (CACC - ang. Cooperative Adaptive Cruise Control), które wykorzystują pomiary z czujników pokła więcej »

WPŁYW POCHYLENIA ANTENY NA POMIARY EMISJI ZABURZEŃ PROMIENIOWANYCH POCHODZĄCYCH OD ODBIORNIKÓW TELEWIZYJNYCH - DOI:10.15199/59.2017.6.11
Adam Maćkowiak Krzysztof Sieczkarek 
Warunki wykonywania badań kompatybilności elektromagnetycznej urządzeń multimedialnych (w tym odbiorników telewizyjnych) określa norma EN55032 [1]. W zakresie pomiarów emisji promieniowanej przywołuje ona normę EN55016-2-3 [2], która szczegółowo definiuje metodologię prowadzenia takich badań. W przedziale częstotliwości 30 MHz do 1 GHz wymagany jest tutaj tzw. skan wysokości anteny czyli rejestrowanie natężeń pól zaburzeń dla odległości anteny od ziemi zmieniającej się w zakresie 1-4 m. Norma [2] zakłada, że podczas tej czynności antena zawsze znajduje pod stałym kątem 90o w stosunku do masztu, tak więc przy średniej wysokości około 50-60 cm odbiornik telewizyjny dość szybko wychodzi z bezpośredniego "pola widzenia" anteny wynikającego z jej charakterystyki promieniowania. W artykule pokazano, że zastosowanie pochylania anteny (ang. tilt) tak aby niezależnie od wysokości "celowała" w obiekt badany pozwala na zarejestrow więcej »

WPROWADZENIE WIRTUALNYCH LIDERÓW W CELU WYDŁUŻENIA DŁUGOŚCI KONWOJU POJAZDÓW W SYSTEMIE 802.11p - DOI:10.15199/59.2017.6.46
Karolina Lenarska Michał Sybis Paweł Sroka Marcin Rodziewicz Adrian Langowski Krzysztof Wesołowski 
Zainteresowanie systemami komunikacji między pojazdami (ang. Vehicle-to-Vehicle, V2V) oraz między pojazdami a infrastrukturą drogową (ang. Vehicle-to- Infrastructure, V2I) rośnie wśród producentów samochodów i w środowisku akademickim dzięki możliwościom, jakie zapewniają te systemy w zakresie poprawy efektywności ruchu drogowego, mobilności, bezpieczeństwa, jak również warunków jazdy. Jednocześnie systemy tego typu mogą zapobiegać potencjalnie niebezpiecznym sytuacjom w ruchu drogowym. Jedną z technologii mających zwiększyć efektywność jazdy, przepustowość dróg, a także bezpieczeństwo kierowców jest autonomiczny ruch konwoju pojazdów na drogach, w którym samochody z peletonu dostosowują swoją prędkość tak, aby utrzymać z góry ustaloną odległość do samochodu poprzedzającego. Według najnowszych badań [1], formowanie konwojów na drogach może zwiększyć ich przepustowość prawie dwukrotnie. Wymaga to jednak zastosowania w pełni automatycznego systemu sterowania wykorzystując w tym celu czujniki oraz komunikację bezprzewodową między samochodami w peletonie. Pierwsze adaptacyjne tempomaty (ang. adaptive cruise control, ACC) na szerszą skalę pojawiły się już w 2005 r. w samochodach marki Mercedes. Dziś rozwiązanie to oferowane jest właściwie przez wszystkie marki, mające w swojej ofercie auta luksusowe. Adaptacyjny tempomat to urządzenie pozwalające nie tylko utrzymywanie zadanej prędkości jazdy, ale także korekty tej prędkości w zależności od warunków na drodze. Oznacza to automatyczne zwalnianie oraz przyspieszenie uwzględniające aktualne potrzeby. Obecnie dużym zainteresowaniem naukowców na całym ściecie cieszą się systemy zwane kooperacyjnymi adaptacyjnymi tempomatami (ang. Cooperative Adaptive Cruise Control), będące rozwinięciem systemów ACC. Systemy te, poza danymi z czujników pokładowych, wykorzystują również wymianę informacji drogą radiową lub optyczną. W dotychczasowych badaniach zauważono, że jednym z problemów d więcej »

WYKORZYSTANIE BAZ DANYCH ŚRODOWISKA RADIOWEGO REM DO ZARZĄDZANIA PRZYDZIAŁEM ZASOBÓW WIDMOWYCH - DOI:10.15199/59.2017.6.71
Łukasz Kułacz Adrian Kliks Paweł Kryszkiewicz 
Relatywnie niewielka liczba wykorzystanych w Polsce w danej lokalizacji kanałów telewizyjnych stwarza podstawy do analizy możliwości ich wykorzystania z użyciem technologii radia kognitywnego [1]. W szczególności ciekawym przypadkiem aplikacyjnym mogłoby być dostarczanie bezprzewodowego dostępu do usług (np. szerokopasmowego Internetu) wewnątrz budynków. Wynika to z obserwacji wyników przeprowadzanych w tym zakresie pomiarów [6]. Odbierana moc sygnału telewizyjnego wewnątrz pomieszczeń jest z reguły niewystarczająca do zapewnienia wymaganej jakości odbioru sygnału i konieczne jest wykorzystanie zewnętrznej anteny. W tej sytuacji w danym miejscu teoretycznie można wykorzystać nieużywane fragmenty pasma telewizyjnego do innych celów. Jednym z możliwych przypadków jest zastosowanie baz danych środowiska radiowego (REM, ang. Radio Environment Maps) i opartych na nich algorytmów dynamicznego przydziału zasobów np. [7]. Mapa środowiska radiowego to w ogólności mapa przedstawiająca różnego rodzaju dane dotyczące środowiska radiowego. Zawierać może ona informacje np. o położeniu odbiorników i nadajników, o regulacjach dotyczących pasma, dostępnych usługach, aktualnym wykorzystaniu częstotliwości, a także zapamiętane wcześniejsze informacje dotyczące przydzielanych zasobów. Zważywszy na zmienność w czasie otoczenia radiowego oraz regulacji prawnych, dane w niej zawarte muszą być systematycznie aktualizowane, a wykorzystanie pasma częstotliwościowego monitorowane [8]. Dzięki bazom danych typu REM możliwa jest optymalizacja wykorzystania widma, gdyż zawarte w niej informacje o bieżącym wykorzystaniu pasma są niezbędne podczas przydzielania zasobów nowym użytkownikom. Dodatkowe nadajniki nie mogą bowiem zakłócać pracy pobliskich urządzeń, które dotychczas działały poprawnie. Jedną z podstawowych danych, jaka musi być zawarta w takiej bazie jest informacja o mocy odbieranego sygnału systemu chronionego w dowolnym miejscu budynku. Z więcej »

WYKORZYSTANIE FILTRU KALMANA DO WYZNACZANIA POZYCJI WĘZŁÓW W ULTRASZEROKOPASMOWYM SYSTEMIE LOKALIZACYJNYM - DOI:10.15199/59.2017.6.63
Vitomir Djaja-Jośko 
W dzisiejszych czasach wzrasta zapotrzebowanie na usługi wykorzystujące informację o położeniu wewnątrz pomieszczeń. Można wyróżnić takie zastosowania jak monitorowanie sprzętu oraz personelu w halach, nawigowanie wewnątrz centrów handlowych, czy wspomaganie osób starszych. Każde z tych zastosowań cechuje się różnymi wymaganiami dotyczącymi dokładności wyznaczania pozycji, częstości jej aktualizowania czy liczby lokalizowanych obiektów. Istnieje wiele systemów pozwalających na realizację powyższych zadań - systemy optyczne, ultradźwiękowe, inercyjne oraz radiowe. Cechują się one różnymi właściwościami i obszarami, w których znajdują zastosowanie. Istotną grupą systemów do lokalizacji wewnątrz pomieszczeń są systemy radiowe. Ze względu na wykorzystywane sygnały, można wśród nich wyróżnić trzy podstawowe rozwiązania: wykorzystujące technikę WiFi [4], Bluetooth [5] oraz UWB (Ultrawideband) [6]. Rozwiązania działające zgodnie ze standardami WiFi oraz Bluetooth są popularne ze względu na duże rozprzestrzenienie tych technologii oraz ich łatwą dostępność. Najczęściej, do wyznaczania pozycji wykorzystywana jest informacja o poziomie odbieranego sygnału przez etykiety bądź węzły systemu. Uzyskiwane są dokładności rzędu kilku metrów, co w zupełności wystarczy do zgrubnego szacowania pozycji lokalizowanych obiektów w dużych obszarach. Niestety, w większości przypadków, kiedy konieczne jest wyznaczanie pozycji obiektów wewnątrz mieszkań, systemy te nie są wystarczające. Istotnym faktem jest, że ze względu na niskie dokładności wyznaczania pozycji, położenia węzłów tych systemów nie muszą być bardzo dokładnie znane. W ostatnim czasie, dzięki dynamicznemu rozwojowi technologii oraz pojawianiu się nowych urządzeń, technika ultraszerokopasmowa staje się coraz bardziej popularna. Czerpie ona korzyści z bardzo szerokiego pasma transmitowanych sygnałów (sięgającego nawet 500 MHz według norm amerykańskich oraz 50 MHz według norm europejs więcej »

WYKORZYSTANIE POMIARÓW PRZYSPIESZENIA DO ZWIĘKSZENIA DOKŁADNOŚCI WYZNACZANIA POŁOŻENIA W ULTRASZEROKOPASMOWYM SYSTEMIE LOKALIZACYJNYM - DOI:10.15199/59.2017.6.64
Marcin Kołakowski 
Ultraszerokopasmowe systemy lokalizacyjne pozwalają na lokalizację obiektów wewnątrz pomieszczeń z dokładnością rzędu kilkunastu centymetrów. Osiągnięcie takiej dokładności wymaga zastosowania systemu o rozbudowanej infrastrukturze, co może to być trudne i kosztowne w realizacji. W związku z tym opracowywane są inne sposoby pozwalające na zwiększenie dokładności lokalizacji. Jednym z nich jest realizacja systemów łączących ze sobą radiowe systemy lokalizacyjne z systemami inercyjnymi. W systemach tych oprócz konwencjonalnych ultraszerokopasmowych układów radiowych są wykorzystywane jednostki inercyjne zawierające typowo żyroskop i akcelerometr [1]. Systemy tego typu można podzielić ze względu na sposób integracji danych z poszczególnych modułów. Typowo wyróżnia się następujące kategorie: systemy niesprzężone, luźno sprzężone i ściśle sprzężone [2]. W systemach niesprzężonych położenie wyznaczane przez system inercyjny jest okresowo korygowane z wykorzystaniem systemu radiowego. W systemach luźno sprzężonych położenie jest wyznaczane niezależnie przez obydwa systemy. Otrzymane wyniki lokalizacji są następnie integrowane za pomocą osobnego algorytmu. W systemach ściśle sprzężonych [3] dane pomiarowe z systemu inercyjnego są przetwarzane wspólnie z danymi z systemu radiowego przy użyciu jednego algorytmu. Jednym z problemów jakie niesie za sobą stosowanie jednostek inercyjnych jest ich wysoka energochłonność, która ma duże znaczenie w przypadku urządzeń zasilanych bateryjnie. Przykładowo, kompletna jednostka inercyjna zawierająca żyroskop i akcelerometr produkcji Bosch Sensortec (BMI 160) w trakcie normalnej pracy pobiera około 0.95 mA [4]. Dla porównania pojedynczy akcelerometr tego samego producenta (BMA 280) charakteryzuje się poborem prądu na poziomie 0.13 mA [5]. Warto wspomnieć że powyższe układy należą do kategorii energooszczędnych. Pobór prądu typowych jednostek inercyjnych może wynosić nawet kilka mA. Możliwoś więcej »

WYKORZYSTANIE WYBRANYCH WIELOMIANÓW DO ZAPEWNIENIA STABILNOŚCI PÓŹNOCZASOWEJ ODPOWIEDZI ANTENY LINIOWEJ NA POBUDZENIE IMPULSOWE - DOI:10.15199/59.2017.6.13
Anna Witenberg Maciej Walkowiak 
Istota wykorzystania dziedziny czasu do wyznaczania właściwości szerokopasmowych anteny sprowadza się do pobudzenia jej krótkim w czasie impulsem (w naszym przypadku będzie to impuls Gaussa), a następnie obliczeniu odpowiedzi na takie pobudzenie. Reakcja anteny trwa relatywnie długo, stąd i długi czas obliczeń oraz możliwość utraty ich stabilności numerycznej polegającej na pojawieniu się wykładniczo narastających oscylacji [1]. Czas od chwili pobudzenia anteny można podzielić na dwa etapy. W pierwszym, początkowym okresie procesu czynnikiem sterującym jest pobudzenie, a o przebiegu procesu decydują sprzężenia lokalne. Tą część procesu nazywamy czasem początkowym (early time). W późniejszej części procesu, gdy zanika pobudzenie, zjawiska są kształtowane przez globalne cechy obiektu. Ten okres to czas późniejszy (late time). Do opisu odpowiedzi anteny w czasie późniejszym posiłkujemy się koncepcją SEM Bauma, czyli modelem procesu wynikającym z działania mechanizmów rezonansowych. Wynika z niej, że każdy obiekt może gromadzić energię na ściśle określonych dyskretnych częstotliwościach, z określoną dobrocią. Energia zgromadzona w taki sposób jest wypromieniowana w postaci sinusoid z przypisanymi im charakterystycznymi częstotliwościami i wykładniczo tłumionymi amplitudami (częstotliwości i tłumienie zapisane w postaci zespolonej nazywamy biegunem , tzn. ). Przy pobudzeniu impulsowym większość energii jest wypromieniowana na początku procesu: w czasie początkowym i wczesnym okresie późniejszym. Najpierw energii pozbywają się bieguny o wyższych częstotliwościach i większym tłumieniu amplitudy. W dalekim czasie późniejszym pozostaje szczątkowa energia związana już tylko z pierwszym biegunem o najmniejszej częstotliwości i najmniejszym tłumieniu. Ponieważ właśnie ten biegun pozwala na więcej »

WYKRYWANIE SYGNAŁU OFDM NA PODSTAWIE WŁASNOŚCI KORELACYJNYCH I CYKLOSTACJONARNYCH - DOI:10.15199/59.2017.6.55
Krystian Grzesiak 
Detektory autokorelacyjne i cyklostacjonarności należą do detektorów cech dystynktywnych sygnału, wykorzystujące wbudowane właściwości sygnałów zmodulowanych. Detektory cech są zwykle złożone, ale zapewniają dobre właściwości detekcyjne, w tym możliwości odróżnienia sygnału od zakłóceń, co nie jest możliwym w przypadku detektora energii. W artykule ograniczono się do detekcji sygnału OFDM. Założono znajomość parametrów sygnału tzn. czas trwania symbolu i cyklicznego przedrostka. Przyjmuje się, że znana jest częstotliwość nośna sygnału, stąd też na wejściu detektora jest on w paśmie podstawowym. Zakłada się także, że próbki szumu są zmiennymi niezależnymi o jednakowym rozkładzie (i.i.d. identically independently distributed) o nieznanej wariancji. Przedstawiony w artykule detektor bazuje na funkcji korelacji cyklicznej (CAF Cyclic Autocorrelation Function). Jest rozwinięciem jednocyklicznego detektora cyklostacjonarności przedstawionego w [1], jego modyfikacjami [2] oraz multicyklicznego przedstawionego w [3]. Zasadniczo problem detekcji sprowadza się do wyznaczenia właściwej statystyki testowej. W porównaniu z [1] zaproponowana w artykule statystyka testowa ma lepsze właściwości detekcyjne, zachowując przy tym niską złożoność obliczeniową statystyk [2 i 3]. Może posłużyć do zdefiniowania detektora korelacyjnego, cyklostacjonarności i korelacyjno-cyklostacjonarności. Właściwości autokorelacyjne i cyklostacjonarne sygnału OFDM zależą od długości cyklicznego przedrostka. W związku z tym w artykule uwzględniono analizę teoretyczną i symulacyjną wpływu długości cyklicznego przedrostka na możliwości detekcyjne. Dalszy układ artykułu jest następujący. W rozdziale drugim przedstawiono właściwości korelacyjne i cyklostacjonarne sygnału OFDM. Przeprowadzono również analizę teoretyczną wpływu długości cyklicznego przedrostka na właściwości detekcyjne sygnału. Rozdział trzeci zawiera propozycję detektora, którego działanie został więcej »

WYRAZISTOŚĆ LOGATOMOWA JAKO MIARA JAKOŚCI MOWY KODOWANEJ W FORMACIE MP3 - DOI:10.15199/59.2017.6.41
Stefan Brachmański 
Standard MP3 (MPEG-1 Audio Layer 3) jest to jeden z najpopularniejszych formatów plików dźwiękowych. Został on opracowany w Instytucie Fraunhofera przy współpracy z firmą Thomson w 1991 roku i zaaprobowany przez ISO jako międzynarodowy standard ((ISO 11172-3) [10]. W standardzie MP3, opisanym w licznej literaturze [8], [9], [10], [13], [14], [16], [20], kodowanie polega na ograniczeniu wielkości strumienia fonicznego przez usunięcie z niego składowych, które są nieistotne z punktu widzenia słuchacza. Wykorzystuje się w tym celu pewne niedoskonałości ludzkiego ucha, a w szczególności tzw. efekt maskowania w dziedzinie częstotliwości i czasu. Format MP3 jest przede wszystkim stosowany do kompresji plików muzycznych, ale nie tylko. Jest on bowiem używany również w niektórych komunikatorach głosowych, a także wykorzystywany do archiwizacji nagrań słownych. W zależności od ustalonych parametrów (szybkości bitowej) kompresji MP3 plik może mieć większy lub mniejszy rozmiar. Prezentowana praca jest kontynuacją wcześniejszych badań nad określeniem związku między jakością kodowanej mowy, a różnymi czynnikami wpływającymi na tą jakość [3], [6]. Jednym z takich czynników jest szybkość bitowa przy różnych technikach kodowania sygnału mowy. W pracy zbadano wpływ szybkości bitowej na jej jakość sygnału mowy kodowanego w standardzie MP3. Ocenę jakości mowy można wykonać subiektywnymi i obiektywnymi metodami [1], [2], [4], [5], [7], [11], [12], [15], przy czym najbardziej wiarygodne są metody subiektywne. Zaletą ich jest fakt, że oceny dokonuje człowiek, natomiast wadą ich duża czasochłonność, a co za tym idzie duża kosztowność. Subiektywna ocena jakości kodowania mowy może być wykonana według kryterium wskaźnika ocen (MOS) [11] bądź według kryterium zrozumiałości (wyrazistość logatomowa) [17], [18]. W literaturze wyniki oceny jakości sygnału mowy poddanego różnym technikom kodowania, prezentowane są jako wskaźniki MOS otrzymane na p więcej »

WYZNACZANIE KONTURÓW OBSZARÓW POKRYCIA SYGNAŁEM Z WYKORZYSTANIEM BIBLIOTEKI PRZETWARZANIA OBRAZÓW OPENCV - DOI:10.15199/59.2017.6.97
Jacek W. Wroński 
W procesie planowania i optymalizacji sieci radiowych znajomość konturów obszaru pokrycia sygnałem użytecznym odgrywa istotną rolę przy wyznaczaniu procentowego pokrycia planowanego obszaru, czy w wyznaczaniu procentowego pokrycia ludnościowego na danym obszarze. Znajomość obszaru pokrycia sygnałem użytecznym, jak i zakłócającym, wymagana jest również w analizach kompatybilności elektromagnetycznej systemów w procesie zarządzania widmem elektromagnetycznym. Zagadnienie wyznaczania konturów linii stałej wartości (izolinii) jest dobrze znane [3]-[11]. Problem polega na czasie ich wykonania. Jeżeli w procesie planowania i optymalizacji sieci radiowych wykonywanych jest wiele iteracji, to czas wykonania każdej iteracji jest elementem składowym całkowitej sumy obliczeń. W celu przyspieszenia procesu generowania konturów obszaru zasięgu sieci, postanowiono wykorzystać funkcje biblioteki OpenCV, stosowanej w procesie przetwarzania obrazów, związane z rozpoznawaniem konturów. 2. BIBLIOTEKA OpenCV Biblioteka OpenCV [1], oparta na kodzie otwartym, zapoczątkowana przez firmę Intel, jest biblioteką wieloplatformową. Można z niej korzystać zarówno na platformie Linux, Mac OS X, Windows, iOS oraz Android. Posiada interfejsy dla języków programowania C, C++, Java czy Python. Istnieje również wieloplatformowa wersja biblioteki "opakowującej" (wrapper) OpenCV - Emgu CV [2], pozwalająca na wykorzystanie biblioteki OpenCV na platformie Microsoft .NET. Biblioteka Emgu CV kompilowana jest w środowisku programistycznym Visual Studio, Xamarin Studio czy Unity. Dostępne w niej funkcje wywoływane są bezpośrednio w językach kompatybilnych z platformą .NET (C#, VB, VC++, IronPython, …), a więcej »

ZASTOSOWANIE ALGORYTMU FILTRACJI CZĄSTECZKOWEJ DO WYZNACZANIA LOKALIZACJI WE WNĘTRZACH BUDYNKÓW - DOI:10.15199/59.2017.6.62
Robert Kawecki Jarosław Kawecki Paweł Oleksy Krzysztof Piwowarczyk Piotr Korbel Sławomir Hausman 
Wewnątrzbudynkowe radiowe systemy lokalizacyjne cieszą się w ostatnich latach ogromnym zainteresowaniem, także w kontekście Internetu Rzeczy. Rozwój niedrogich rozwiązań przeznaczonych do wykorzystania z popularnymi urządzeniami mobilnymi pozwolił na opracowanie licznych aplikacji wykorzystujących informację o położeniu terminala (LBS, z ang. Location Based Services). Systemy takie wykorzystywane są na przykład w celu dostarczania użytkownikowi informacji marketingowych, czy poprawy jego bezpieczeństwa w miejscach publicznych. Systemy realizujące powyższe funkcje we wnętrzach budynków, ze względu na brak dostępności dostatecznej jakości sygnału z nadajników satelitarnych, do wyznaczania położenia terminala najczęściej wykorzystują informacje o parametrach lokalnie odbieranych sygnałów radiowych nadawanych przez punkty dostępowe sieci Wi-Fi lub znaczniki (ang. beacon) pracujące w standardzie Bluetooth Low Energy [3]. Ze względu na łatwość wykonania pomiaru, jednym z najczęściej wykorzystywanych w systemach lokalizacyjnych parametrów sygnałów jest poziom mocy odebranej (RSS, ang. Received Signal Strength). Wskaźnik mocy odebranej RSSI (ang. Received Signal Strength Indicator) jest implementowany praktycznie we wszystkich dostępnych na rynku układach radiowych. Dostępne są rozwiązania wykorzystujące pomiar czasu propagacji sygnału, które są znacząco dokładniejsze niż te wykorzystujące RSS, ale są one znacznie droższe i wymagają dedykowanej infrastruktury [1]. Znając rozkład natężenia pola elektromagnetycznego w obszarze, po którym porusza się użytkownik terminala mobilnego [7], można wykorzystać różne metody [1][4][6] wyznaczenia estymaty jego położenia. Do najczęściej stosowanych, należą metody korelacyjne, których wynik działania uzależniony jest od podobieństwa parametrów sygnałów rejestrowanych przez terminal użytkownika z wzorcowymi wartościami przechowywanymi w bazie referencyjnej. Wykorzystanie tej klasy metod wiąż więcej »

ZASTOSOWANIE ANALOGOWEGO ŁĄCZA RADIO OVER FIBER DO PRZESYŁU SZEROKOPASMOWYCH SYGNAŁÓW OFDM - DOI:10.15199/59.2017.6.101
Sławomir Pluta Ryszard Kopka 
Standardowym sposobem przekazania analogowego radiowego sygnału w.cz. do anteny jest koncentryczny przewód transmisyjny wykonywany w sposób zapewniający właściwą propagację sygnału. W związku z dość ograniczonym zasięgiem takich układów transmisyjnych wynikającym z oczywistych ograniczeń transmisji w okablowaniu metalowym, istnieją określone problemy z wynoszeniem sygnałów radiowych do oddalonych lokalizacji antenowych. Skutkiem końcowym takiego sposobu transmisji, a także błędów montażowych konektorów, jest obniżenie mocy sygnału, obniżenie wartości stosunku C/N (ang. carrier to noise ratio) oraz wzrost zniekształceń intermodulacyjnych PIM sygnału. Dla transmisji szerokopasmowych sygnałów OFDM zapewnienie odpowiedniej wartości tych parametrów ma podstawowe znaczenie. Stosowanie rozproszonych zespołów antenowych DAS (ang. Distributed Antenna System), wzdłuż autostrad, tuneli, na lotniskach, centrach handlowych i innych dużych obiektach wymaga często wprowadzania dodatkowych wzmacniaczy pośrednich w celu wydłużenia zasięgu kabla. Problem ten w obecnej chwili nabiera dużego znaczenia wskutek ekspansji bezprzewodowych technik telekomunikacyjnych i umieszczania układów antenowych w pewnej odległości od stacji bazowych. Rozwiązaniem optymalnym jest technika RoF (ang. Radio over Fiber), gdzie sygnał radiowy w.cz. jest transmitowany do zespołów antenowych za pomocą okablowania światłowodowego. Rozwój techniki Radio over Fiber (RoF) rozpoczyna się od roku 1990 [2,3,7]. Od tego czasu wiele prac badawczych pozwoliło na wielki postęp w zakresie badania własności tej techniki oraz opracowania nowych rozwiązań np.[1,4,5,6,9]. W ostatnim czasie zostały wprowadzone nowe specyfikacje stacji bazowych dla systemów czwartej i piątej generacji (4G, 5G), gdzie wdrożono układy i architektury typu "światłowód do anteny" - FTTA (ang. Fiber to the Antenna). Typowe rozwiązania FTTA tworzone są w ramach standardów Common Public Radio Interface więcej »

ZWIĘKSZANIE ROZDZIELCZOŚCI OBRAZU I MAPY GŁĘBI W CELU POPRAWY JAKOŚCI SYNTEZY WIDOKÓW WIRTUALNYCH - DOI:10.15199/59.2017.6.57
Adrian Dziembowski Adam Grzelka Dawid Mieloch 
Telewizja swobodnego punktu widzenia (ang. Free- Viewpoint Television, FTV) umożliwia widzowi wirtualne przemieszczanie się w zarejestrowanej przy pomocy systemu wielokamerowego scenie. Istniejące systemy wielokamerowe liczyć mogą do kilkuset kamer [14], jednakże wyklucza to ich użyteczność w kontekście rejestracji jakichkolwiek nieeksperymentalnych materiałów, jak choćby transmisji wydarzeń sportowych. Praktyczny system charakteryzuje się zdecydowanie mniejszymi rozmiarami, licząc od kilku do kilkunastu kamer [1,5,8]. Ażeby zapewnić widzowi płynną nawigację, nie można swobody jego ruchu ograniczyć wyłącznie do pozycji rzeczywistych kamer wchodzących w skład systemu wielokamerowego - należy umożliwić widzowi spoglądanie na scenę również z pozycji pośrednich. Implikuje to konieczność syntezy widoków wirtualnych, czyli stworzenia obrazów rejestrowanych przez wirtualne kamery, znajdujące się pomiędzy rzeczywistymi urządzeniami. Rys. 1. Idea systemu telewizji swobodnego punktu widzenia Idea systemu telewizji swobodnego punktu widzenia przedstawiona została na rys. 1, gdzie kolorem pomarańczowym oznaczono rzeczywiste kamery tworzące system wielokamerowy, a kolorem szarym przykładowe widoki wirtualne. 2. SYNTEZA WIDOKÓW WIRTUALNYCH Najbardziej rozpowszechniona metoda syntezy widoków wirtualnych bazuje na reprezentacji "głębia - obraz" (ang. Depth-Image-Based Rendering, DIBR) [13]. Rozwiązanie takie jest szeroko stosowane chociażby w kompresji obrazu wielowidokowego [2], czy też w uznanym, powszechnie stosowanym oprogramowaniu odniesienia, tworzonym przez grupę normalizacyjną MPEG - VSRS (View Synthesis Reference Software) [12]. Metoda odniesienia stworzona została na potrzeby prostych systemów wielokamerowych, w których to kamery ustawione są równolegle, a przetwarzanie obrazu jest zdecydowanie prostsze. Pomimo zaadaptowania VSRS do dowolnego (np. łukowego) ustawienia kamer, istnieją lepsze metody syntezy, jak choćby zapropo więcej »

  • Aktualnoś›ci
  • Bestsellery
2018-12-12

100-LECIE POWSTANIA SEP»

2018-11-28

Posiedzenie Rady-Naukowo-Technicznej SEP»

2018-09-25

Targi Energetyczne ENERGETICS 2018»

2018-03-26

Rada Firm SEP»

2017-12-07

innogy dodaje energii na Sylwestra»

2017-11-16

Herkules wygrał przetarg GSM-R dla PKP PLK»

2017-11-15

Zasilanie dla metra»

2017-11-13

I FORUM COBOTYKI»

2017-10-17

Targi ENERGETICS - jubileuszowa 10 edycja»

2017-09-28

Zarys historii elektroniki w Polsce»

Możliwości współpracy automatyki samoczynnego załączania rezerwy i systemu FDIR

WIADOMOŚCI ELEKTROTECHNICZNE
(2018-12)»

Modelowanie spalania paliw gazowych w komorach grzewczych metodą DRGEPSA

HUTNIK - WIADOMOŚCI HUTNICZE
(2018-12)»

Wybrane zagadnienia postępowania z odpadami w kontekście bezpieczeństwa ekologicznego na przykładzie Wojskowych Zakładów Uzbrojenia S.A.

PROBLEMY JAKOŚCI
(2018-12)»

Jak zmiany klimatu wpływają na niedźwiedzia brunatnego?

AURA OCHRONA ŚRODOWISKA
(2018-12)»

Wybrane aspekty dotyczące fałszowania żywności

PRZEMYSŁ SPOŻYWCZY
(2018-12)»

Radar harmoniczny do wykrywania zdalnie uruchamianych ładunków IED

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
(2018-12)»

Długoterminowe magazynowanie energii w złożach adsorpcyjnych

CHŁODNICTWO
(2018-6)»

Stabilność antocyjanów w wybranych mrożonych owocach

CHŁODNICTWO
(2018-6)»

Wykorzystanie metod i narzędzi zarządzania jakością usług w podmiotach leczniczych. Analiza przypadków

PROBLEMY JAKOŚCI
(2019-1)»

Zawodowe i środowiskowe narażenie narządu słuchu na toksyczne działanie metali ciężkich

PRZEMYSŁ CHEMICZNY
(2018-12)»

LISTA CZASOPISM

  • ATEST - OCHRONA PRACY
  • AURA OCHRONA ŚRODOWISKA
  • CHŁODNICTWO
  • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
  • DOZÓR TECHNICZNY
  • ELEKTROINSTALATOR
  • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
  • GAZ, WODA I TECHNIKA SANITARNA
  • GAZETA CUKROWNICZA
  • GOSPODARKA MIĘSNA
  • GOSPODARKA WODNA
  • HUTNIK - WIADOMOŚCI HUTNICZE
  • INŻYNIERIA MATERIAŁOWA
  • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
  • MATERIAŁY BUDOWLANE
  • OCHRONA PRZED KOROZJĄ
  • ODZIEŻ
  • OPAKOWANIE
  • PROBLEMY JAKOŚCI
  • PRZEGLĄD ELEKTROTECHNICZNY
  • PRZEGLĄD GASTRONOMICZNY
  • PRZEGLĄD GEODEZYJNY
  • PRZEGLĄD MECHANICZNY
  • PRZEGLĄD PAPIERNICZY
  • PRZEGLĄD PIEKARSKI I CUKIERNICZY
  • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
  • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
  • PRZEMYSŁ CHEMICZNY
  • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
  • PRZEMYSŁ SPOŻYWCZY
  • RUDY I METALE NIEŻELAZNE
  • SZKŁO I CERAMIKA
  • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
  • WIADOMOŚCI ELEKTROTECHNICZNE
  • WOKÓŁ PŁYTEK CERAMICZNYCH

WYSZUKIWANE FRAZY

aura żywność ekologiczna inżynieria materiałowa konserwanty suszenie grzyby przemysł chemiczny elektronika grafen haccp logistyka cukier herbata gospodarka mięsna miód materiały budowlane gospodarka wodna transglutaminaza dodatki do żywności pszenica Żarczyński ksylitol przegląd elektrotechniczny chleb ryby olej lniany pieczywo Amarantus olej rzepakowy jakość atest 7 kukurydza czekolada gluten gmo antyoksydanty kaizen mleko ocena ryzyka drożdże błonnik Przemysl Chemiczny makaron ochrona przed korozją pompy ciepła Kociołek-Balawejder PRZEMYSŁ SPOŻYWCZY problemy jakości żywność funkcjonalna przegląd papierniczy wino lody przegląd mleczarski orkisz proso kawa wzbogacanie żywności antocyjany Akrylamid ekstruzja zamrażanie nanotechnologia polifenole kakao kiełki kontakt aluminium zielona herbata analiza sensoryczna błonnik pokarmowy sól opakowania mięso reologia ocena ryzyka zawodowego rokitnik olejki eteryczne ARONIA opakowania aktywne enzymy karotenoidy jęczmień masło dynia kofeina mąka biogaz kefir liofilizacja ścieki fotowoltaika żyto jakość żywności Wiadomości elektrotechniczne celiakia salmonella przyprawy probiotyki PIWO
  • WYDAWNICTWO | PRENUMERATA | REKLAMA | DRUKARNIA | KOLPORTAŻ | REGULAMIN E-USŁUG
Projekt i wykonanie: Pragma Software