Wyniki 1-10 spośród 20 dla zapytania: authorDesc:"Sylwester Kaczmarek"

55-lecie pracy naukowo-dydaktycznej profesora Mariana Zientalskiego


  Niniejszy - dziewiąty zeszyt Przeglądu Telekomunikacyjnego i Wiadomości Telekomunikacyjnych - wydany w związku z XXVI KSTiT, jest okazją do nakreślenia w kilku zdaniach osiągnięć profesora Zientalskiego, który w bieżącym roku obchodzi 55 lat pracy naukowo-dydaktycznej1), a jednocześnie jest utożsamiany przez polskie środowisko telekomunikacyjne z KSTiT. W pracy zawodowej Profesora można wyróżnić kilka istotnych obszarów aktywności, których wspólnym mianownikiem jest telekomunikacja. W początkowym okresie obejmowały one działalność w rodzimej Alma Mater, która to działalność z czasem przeniosła się na poziom krajowy. W każdym z tych obszarów widoczny jest bardzo duży wkład w rozwój telekomunikacji, w tym w szczególności w zakresie prac dydaktycznych i rozwoju kadry, prac naukowo-badawczych, prac rozwojowych na rzecz przemysłu, ekspercko-doradczych oraz organizacyjnych. Przygoda Profesora z telekomunikacją rozpoczęła się podczas studiów na Wydziale Elektrycznym Politechniki Gdańskiej, gdy już na czwartym roku w 1955 r. został zastępcą asystenta. Studia te ukończył w 1957 roku jako magister inżynier łączności na Wydziale Łączności utworzonym w 1952 roku. Wówczas to z jednej z dwóch istniejących katedr, tzn. Katedry Teletechniki, zostały wyłonione: Katedra Techniki Przenoszenia Przewodowego, kierowana przez prof. Ł. Dorosza oraz Katedra Teletechniki Łączeniowej, kierowana przez prof. Wiktora Szuksztę. W 1954 roku po śmierci prof. Ł. Dorosza kierownictwo Katedry Techniki Przenoszenia Przewodowego objął prof. Feliks Błocki. Po nim, w roku 1957 r., kierownikiem został prof. Józef Sałaciński. Została też zmieniona nazwa Katedry na Katedrę Teletransmisji Pr[...]

Katedra Sieci Teleinformacyjnych


  Rys historyczny Utworzona w 2006 roku Katedra Sieci Teleinformacyjnych powstała w wyniku połączenia istniejących wcześniej: Katedry Systemów i Sieci Telekomunikacyjnych (kierowanej przez prof. dr. inż. Mariana Zientalskiego) oraz połowy składu osobowego istniejącej od 1971 roku Katedry Systemów Informacyjnych (kierowanej przez prof. zw. dr. hab. Wojciecha Sobczaka). Mimo że formalnie jest to Katedra bardzo młoda, to jej rodowód sięga początków Politechniki Gdańskiej. Dorobek tego tak długiego czasu istnienia oraz stała konieczność i potrzeba sprostania dynamice zmian w obszarze telekomunikacji i związanej z tym działalności naukowo-dydaktycznej stanowią wyznacznik rozwoju Katedry. Początek historii Katedry Systemów i Sieci Telekomunikacyjnych sięga roku 1945, kiedy to na ówczesnym Wydziale Elektrycznym Politechniki Gdańskiej istniała Katedra Teletechniki kierowana przez prof. Łukasza Dorosza. Stanowiła ona wraz z Katedrą Radiotechniki zalążek przyszłego Wydziału Łączności, utworzonego w 1952 roku. Wówczas to z Katedry Teletechniki wyłoniono: Katedrę Techniki Przenoszenia Przewodowego kierowaną przez prof. Ł. Dorosza, oraz Katedrę Teletechniki Łączeniowej kierowaną przez prof. Wiktora Szuksztę. W 1954 roku, po śmierci prof. Ł. Dorosza, kierownictwo Katedry Techniki Przenoszenia Przewodowego objął prof. Feliks Błocki. Po nim w roku 1957 kierownikiem został prof. Józef Sałaciński. Zmieniona została też nazwa na Katedrę Teletransmisji Przewodowej, skrócona następnie na Katedrę Teletransmisji. W tym okresie pracowali w niej wybitni nauczyciele akademiccy, organizatorzy oraz kierownicy przyszłych zakładów i katedr: prof. dr hab. inż. Michał Białko, członek rzeczywisty PAN, prof. dr hab. inż. Ludwik Spiralski, doc. dr inż. Walerian Gruszczyński i prof. dr hab. inż. Henryk Wierzba. Po reorganizacji Wydziału Elektroniki w roku 1969 i utworzeniu instytutów (zmiana nazwy Wydziału nastapiła w roku 1966) Katedrę przekształcono w Zakład T[...]

W 110. rocznicę urodzin Prof. dr hab. inż. Wiktor Szukszta DOI:


  W życiu społeczności i instytucji pojawiają się ludzie, którzy swoim działaniem i postawą mają wpływ nie tylko na czas ich aktywności. Skutki ich oddziaływania mają zasięg daleko wykraczający poza ten okres niezależnie od wydarzen historii. W obszarze telekomunikacji taką postacią był prof. Wiktor Szukszta. Większość swego życia przeznaczył na pracę zawodową, edukację i kształcenie kadr oraz działalność badawczo-rozwojową w dziedzinie telekomunikacji. Pracując w środowisku akademickim na Politechnice Gdańskiej, nie ograniczał swojego zaangażowania jedynie do dydaktyki i nauki, lecz także widział potrzebę współpracy z firmami telekomunikacyjnymi. Takie podejście było wynikiem drogi życiowej, jaką Profesor przeszedł w okresie swoich studiów, gdy musiał jednocześnie pracować, a także podczas okupacji i po wojnie. Urodził się 21 września 1906 roku w Wilnie. Tam uczęszczał do szkoły średniej i bezpośrednio po jej ukończeniu w 1924 roku wstąpił na Uniwersytet Wileński, gdzie przez dwa lata studiował matematykę na Wydziale Matematyczno-Przyrodniczym. W 1926 roku, po zdaniu obowiązujących egzaminów, rozpoczął studia na Wydziale Elektrycznym Politechniki Warszawskiej, które ukończył w 1937 roku, otrzymując dyplom magistra inżyniera elektryka w specjalności teletechnika. Podczas st[...]

Działalność w obszarze grantów realizowana przez katedrę sieci teleinformacyjnych DOI:10.15199/59.2016.7.6


  Przedstawiono działalność Katedry Sieci Teleinformacyjnych PG WETI w obszarze grantów finansowanych przez instytucje centralne, przy czym główny nacisk położono na scharakteryzowanie aktualnie realizowanych projektów. Opisano dwa projekty finansowane przez NCBiR. Pierwszy dotyczy koncepcji oraz implementacji integracji informacji w rozproszonych elementach systemu wymiany danych Straży Granicznej, natomiast drugi strumieniowej transmisji danych czasu rzeczywistego w rozproszonych systemach dyspozytorskich i teleinformatycznych Straży Granicznej. Słowa kluczowe: granty, Straż Graniczna, systemy nadzoru, bezpieczeństwo.W swej długiej historii Katedra Sieci Teleinformacyjnych PG była aktywna w działalności badawczo-rozwojowej. Wyrażało się to między innymi w pozyskiwaniu grantów finansowanych przez jednostki centralne lub przemysł. W ostatnich latach Katedra realizowała projekty grantowe o następującej tematyce: - badawczo-rozwojowy o nazwie: STRADAR, z zakresu bezpieczeństwa i obronności państwa pt.: Strumieniowa transmisja danych czasu rzeczywistego w rozproszonych systemach dyspozytorskich i teleinformatycznych Straży Granicznej (DOB-BIO6/10/62/2014); - badawczo-rozwojowy o nazwie: KONSOLA, z zakresu bezpieczeństwa i obronności państwa pt.: Koncepcja oraz implementacja integracji informacji w rozproszonych elementach systemu wymiany danych Straży Granicznej (DOBR/0022/R/ID1/2013/03); - badawczy pt.: Filtry cyfrowe ułamkowoopóźniające - projektowanie metodą okien, NCN (N N517 553939); - badawczy pt.: Anomalies detection in high-frequency signals with the use of Instantaneous Complex Frequency, umowa zawarta między Politechniką Gdańską a Agilent Technologies Foundation (08EU-535UR); - badawczo-rozwojowy pt.: Rozwój platformy komunikacji multimedialnej integrującej infrastrukturę IP (VoIP) z sieciami abonentów mobilnych (GSM, WiFi) i stacjonarnych (PSTN, ISDN) na potrzeby niezawodnych i wydajnych aplikacji rozproszonych (0504/[...]

System budżetowania parametrów jakościowych dla połączeń wielodomenowych


  Koncepcja globalnej infrastruktury informacyjnej GII i jednego z jej elementów w postaci sieci następnej generacji NGN (Next- Generation Network) [6,8,9] oraz próba realizacji tego elementu jako IMS/NGN (IP Multimedia Systems NGN) [5] wymaga rozwiązania wielu problemów bezpośrednio związanych z gwarancją jakości usług udostępnianych przez te sieci. Rozwiązanie to jest złożone ze względu na dwa przenikające się aspekty. Pierwszy z nich to wieloklasowość usług z różnicowaniem wymagań jakościowych, drugi to wielodomenowość realizacji połączeń między terminalami użytkowników. Wymagania co do jakości usług od końca do końca (E-t-E), tzn. w relacji terminal - sieć - terminal, sprecyzowane przez ITU-T, ujmują kompleksowo zbiór wielkości i klas jakości bez wnikania, jak jest zrealizowana sieć. W dokumencie [7] przedstawiono prosty model odniesienia obliczania tych wielkości. W proponowanym podejściu nie bierze się pod uwagę możliwości optymalizacji wykorzystania zasobów uwzględniającej gwarancje jakości usług. Wynika ona w ogólności z przebiegu obsługi strumienia pakietów przez wiele domen. Zapewnia to możliwość budżetowania poszczególnych wielkości jakościowych do poszczególnych domen, gdzie kryterium stanowi spełnienie wymagań jakościowych od końca do końca, ale w taki sposób, aby można było przyjąć do obsługi jak największą liczbę strumieni, a dokładniej ilość ruchu. Problemowi rozwiązania gwarancji jakości od końca do końca było poświęconych wiele projektów. Jednakże niewiele prac dotyczyło optymalizacji i budżetowania parametrów jakościowych w przypadku połączeń wielodomenowych. Rozwiązanie tego problemu wymaga nie tylko propozycji algorytmu obliczania parametrów jakościowych w zależności od klasy strumienia, stanu i ilości zasobów sieci oraz wyboru drogi, ale także przezwyciężenia trudności w określeniu zbioru wielkości i sposobu ich przekazywania między domenami. Szczególnie ten ostatni warunek jest trudny do spełnienia, poniew[...]

ZAPEWNIENIE SYNCHORNIZACJI CZASU PRZY CZĘŚCIOWYM WSPARCIU SIECI DOI:10.15199/59.2017.8-9.25


  W ostatnich latach nastąpił dynamiczny rozwój technologii związanej z synchronizacją częstotliwości, fazy i czasu w sieciach ethernetowych. Wynika to z dużego zapotrzebowania na jej wysoką dokładność. Przykładową usługą wymagającą zapewnienia dokładnej syntonizacji (częstotliwości) jest LTE-FDD, a w przypadku synchronizacji fazy i czasu LTE-TDD lub w przyszłości LTE-A. Dla usług mobilnych wymagania synchronizacyjne dla interfejsów radiowych są kluczowe. Bez niej zapewnienie odpowiedniej jakości usług było by niemożliwe. Dzięki niej możliwe jest zapewnienie stabilizacji częstotliwości radiowych wykorzystywanych przez stacje bazowe, zwiększenie efektywności wykorzystania widma, zmniejszenie interferencji pomiędzy sąsiadującymi komórkami czy nieprzerwana praca przy przełączaniu między stacjami bazowymi [1]. Na problematykę zapewnienia synchronizacji składa się między innymi wykorzystywana technologia, wsparcie sieci w urządzeniach świadomych przekazywania synchronizacji, odległość od zegara głównego PRTC (Grand Master) oraz rodzaj i natężenie ruchu sieciowego. W artykule przedstawiono wyniki badań i sposób ich realizacji w zaprojektowanej sieci synchronicznej bazującej na modelu HRM-1[2] wraz z symulacją ruchu. Badanie miało na celu sprawdzenie czy możliwe jest spełnienie rygorystycznych wymagań dla usług LTE-TDD przy częściowym wsparciu czasowym sieci. 2. SYNCHRONIZACJA CZĘSTOTILIWOŚCI, FAZY I CZASU 2.1. Pakietowe protokoły synchronizacji czasu Zastosowanie protokołu PTP ma kilka zalet, względem popularnego protokołu synchronizacji czasu NTP. Po pierwsze protokół PTP wymaga, aby stemple czasowe otrzymywane były już na poziomie warstwy fizycznej interfejsu sieciowego, a nie na poziomie jądra systemu operacyjnego. Po drugie zapewnia relatywnie szeroki wachlarz wykorzystania jak i możliwości jego implementacji. Organizacje reprezentujące różne branże technologiczne mogą zaproponować profile, które dostosowywane są do pot[...]

Overview of scalability and reliability problem in sdn networks DOI:10.15199/59.2016.5.3


  In the paper an overview of scalability and reliability in the SDN (Software Defined Networks) networks has been presented. Problems and limitations for guaranteeing scalability and reliability in SDN networks have been indicated. Known methods for assuring scalability and reliability in SDN networks have been described. Projects from research communities for resolving issues with scalability and reliability in SDN networks have been presented. Scientific projects have been categorized based on their common features and the methods for resolving the issues with scalability and reliability. A future field of scientific research has been outlined and all of the presented projects have been graded based on their functionality. Key words: SDN network, scalability, reliability, SDN switch, SDN controller, load balancing, failover, Onix, HyperFlow, DIFANE, DISCO, Kandoo, DevoFlow.In the paper an overview of scalability and reliability in the SDN (Software Defined Networks) networks has been presented. Problems and limitations for guaranteeing scalability and reliability in SDN networks have been indicated. Known methods for assuring scalability and reliability in SDN networks have been described. Projects from research communities for resolving issues with scalability and reliability in SDN networks have been presented. Scientific projects have been categorized based on their common features and the methods for resolving the issues with scalability and reliability. A future field of scientific research has been outlined and all of the presented projects have been graded based on their functionality. Key words: SDN network, scalability, reliability, SDN switch, SDN controller, load balancing, failover, Onix, HyperFlow, DIFANE, DISCO, Kandoo, DevoFlowIn its principal SDN divides control plane and transport plane into separate network entities. SDN-enabled switches and SDN controllers work as a bulk of an SDN network. This division was su[...]

MODEL FOR MEASUREMENT OF FLOW INSTALLATION TIME IN SDN SWITCH DOI:10.15199/59.2017.8-9.70


  SDN is a novel approach that decouples the control plane from data forwarding plane [1]. This is achievable by designating a controller, which sole role is to design rules for traffic forwarding [1]. Controllers install forwarding rules into switches allowing them to forward traffic accordingly. The most popular protocol for SDN is OpenFlow [1, 2]. OpenFlow packets transport information between controller and switch about the state of the network and switches [3]. A packet incoming is checked with the flow table. When there is a match, a switch does a specified action on the packet, including: forwarding to a different output, dropping it or changing its contents. In a scenario, when there is no matching flow, the packet is encapsulated into OpenFlow’s “Packet-in" packet and sent to the controller [2]. The controller checks if there is a rule for such a packet, after which it either drops it (in case there is no matching rule) or installs appropriate flow into the switch (by sending “Flow-mod" message) and forwards the packet accordingly (with the “Packet-out" message) [4]. From this we may indicate that an example where there is a number of switches connected to a single controller may be undesirable in case there is a high number of match misses and a number of packets is send to the controller for checkups [5]. Time that installation of the flow may take might have an impact on an overall performance of the network. The number of flows being installed in the switches might become an impactful hindrance. The time of a flow installation must be relatively short, as the significant factor is controller’s time of response. In case the packets do not find a matching flow, they are treated accordingly to a special “table-miss" rule [6]. Usually it is declared to send packets to the controller [6]. However, this does not mitigate situation in which more than one packet with the same require[...]

BENEFITS FROM BREAKING UP WITH LINUX NATIVE PACKET PROCESSING WHILE USING INTEL DPDK LIBRARIES DOI:10.15199/59.2015.8-9.72


  The Intel Data Plane Development Kit (DPDK) is a set of libraries and drivers for fast packet processing in Linux. It is a dedicated framework for building efficient high-speed data plane applications supporting QoS features with poll mode drivers which are supporting virtual and physical NIC's so environment can be used to build efficient data plane applications for packet networks. The results of test on Quality of Service Metering Sample Application are presented. 1. INTRODUCTION Intel DPDK is dedicated framework for building efficient high-speed data plane applications supporting QoS features. Poll Mode Drivers (PMD) are supporting virtual and physical NIC’s so environment can be used to build efficient data plane applications for physical and virtual network. Also Kernel NIC Interface can be used for interaction with virtual machines and Linux network components. With the transition to Software Defined Networks (SDNs) and network functions virtualization (NFV), network infrastructures require solutions with the flexibility to scale across multiple deployment models while also providing exceptional performance [1]. For packet flow with the rate 10G packets per second the time of single packet arrival for typical network infrastructure (64 bytes) is 67,2 ns. That means if processing unit has 3 GHz clock only 201 cycles can be consumed for single packet processing [1]. This problem statement gives a huge challenge for server hardware and software as well. We have achieved point where traditional solutions stops being enough. Here with help comes Intel DPDK providing complete framework designed for fast and efficient packet processing. Framework includes set of libraries for environment through the creation of Environment Abstraction Layer (EAL) which can be specific for operating system, platform, architecture (32-bit or 64-bit), Linux User Space and its compilers. Once EAL is created user is allowed to l[...]

KEYSTONE - JAKO PROCES AUTORYZACYJNY SYSTEMU OPENSTACK DOI:10.15199/59.2015.8-9.125


  Niniejszy artykuł ma na celu ukazanie funkcjonowania serwisu Keystone odpowiedzialnego za uwierzytelnianie użytkowników w architekturze OpenStack. Stanowi on front-end tego systemu, sprawując kontrolę nad dostępem do zasobów zapewnia scentralizowaną politykę bezpieczeństwa. Komunikacja z serwisem odbywa się na zasadzie klient-serwer, gdzie Keystone obsługuje żądania wysyłane do jego API, w zamian generując klucze dostępowe dla określonych użytkowników w systemie. W artykule przedstawiono testy funkcjonalne i wyniki badań wydajnościowych serwisu Keystone. 1. WSTĘP Ogromny postęp w przeciągu ostatnich 20 lat w dziedzinach związanych z sieciami i systemami przechowującymi dane zaowocował powstaniem struktur o wysokiej funkcjonalności tzw. chmur obliczeniowych. Są to rozwiązania, które przewyższyły swoimi możliwościami swoich poprzedników skupiających się na przechowywaniu danych w ramach serwera. Nowoczesne podejście, jakim są chmury, bazują na różnych modelach zwanych "jako usługa" (ang. aaS), oferując użytkownikom gotowe rozwiązania po stronie infrastruktury, które zapewnia dostawca. Takie systemy mogą składać się z elementów rozproszonych geograficznie po całym świecie. Fakt ten nie będzie miał wpływu na dostępność do zasobów, a w zależności od odległości pomiędzy elementami będzie zmieniała się jedynie wartość opóźnienia. Niniejsza praca prezentuje moduł odpowiedzialny za uwierzytelnianie jednej z takich chmur o nazwie Open- Stack - Keystone. System OpenStack [1], którego Keystone jest elementem, to rozwiązanie z dziedziny chmur obliczeniowych zdolne do przechowywania, przetwarzania oraz modyfikowania danych. Jest to projekt open source napisany w języku Python, który jest w pełni kompatybilny z głównymi dystrybucjami Linuxa, co umożliwia zbudowanie środowiska w łatwy i przyjazny sposób. Zarządzanie systemem odbywa się za pomocą interfejsu graficznego poprzez dostęp z poziomu przeglądarki internetowej lub za pomocą R[...]

 Strona 1  Następna strona »