Wyniki 1-9 spośród 9 dla zapytania: authorDesc:"Andrzej Bęben"

Sieci świadome przekazywanej treści


  W ostatnich latach w sieci Internet można zaobserwować znaczny wzrost ruchu związanego z przekazem treści multimedialnych, takich jak filmy wideo, utwory muzyczne, transmisje wydarzeń kulturalnych i sportowych czy też programy telewizyjne i audycje radiowe. Zgodnie z wynikami badań przedstawionymi w [1], przekaz treści multimedialnych stanowi co najmniej 50% ruchu w sieci Internet. Jednocześnie prognozy dotyczące tego ruchu przewidują dalszy jego wzrost ze względu na rozpowszechnienie obrazów przygotowanych w wysokiej rozdzielczości (High Definition) oraz obrazów trójwymiarowych (3D). W obecnie stosowanym modelu dystrybucji treści zakłada się wykorzystanie systemów pośredniczących, które umożliwiają przechowywanie publikowanej treści oraz jej udostępnianie na żądanie użytkowników. Systemy te obejmują m.in. dedykowane platformy dystrybucji treści, przeznaczone dla danego usługodawcy, np. systemy wideo na życzenie VoD (Video on Demand), powszechnie dostępne systemy udostępniania treści, takie jak YouTube, Flickr czy też sieci wymiany danych typu peer-to-peer (p2p), umożliwiające bezpośredni przekaz zbiorów pomiędzy użytkownikami. Wspólną cechą powyższych rozwiązań jest zrealizowanie systemu dystrybucji treści na poziomie aplikacji i wykorzystanie sieci Internet jedynie do przekazu pakietów. Główne ograniczenia obecnego modelu dystrybucji treści, zgodnie z [2], wynikają z: braku jednolitego i powszechnego systemu identyfikatorów treści, który ogranicza dostępność opublikowanej treści jedynie do grona użytkowników danego systemu pośredniczącego; ograniczonej współpracy pomiędzy operatorami systemów pośredniczących a operatorami sieci, co przyczynia się do nieefektywnego wykorzystania zasobów sieci i serwerów (w szczególności brak informacji o przesyłanej treści powoduje, iż popularna treść jest przesyłana wielokrotnie, powodując przeciążenia sieci); braku odpowiednich mechanizmów wspierających przekaz treści, zapewniających wyma[...]

METODY REALIZAJI USŁUGI REJESTRU TREŚCI DLA SIECI ICN/CAN DOI:10.15199/59.2015.8-9.53


  Rejestr treści jest jednym z kluczowych elementów sieci ICN/CAN, który przechowuje informacje o wszystkich opublikowanych materiałach i lokalizacjach dostępnych replik, a także udostępnia te informacje w procesie obsługi żądania pobrania treści. Ze względu na ogromną liczbę dostępnych materiałów, opracowanie efektywnej realizacji usługi rejestru treści jest ważnym zadaniem projektantów sieci ICN/CAN. W artykule zaproponowano i przebadano nowe rozwiązania dla realizacji usługi rejestru treści bazujące na architekturach DONA (Data Oriented Network Architecture) oraz DHT (Distributed Hash Tables), w których dodatkowo wykorzystano pamięć podręczną. Przeprowadzone badania symulacyjne pozwoliły ocenić cechy proponowanych rozwiązań oraz porównać ich efektywność. 1. WPROWADZENIE W ostatnich latach w sieci Internet obserwujemy znaczący wzrost ruchu (nawet do 70%) związanego z przekazem treści multimedialnych, tj. filmy wideo, muzyka. Główną przyczyną tego wzrostu jest rozwój dedykowanych systemów dystrybucji treści, tj. CDN, NetFlix, jak również usług udostępniania treści, tj. You- Tube, Facebook, które umożliwiają użytkownikom publikowanie w sieci własnych materiałów multimedialnych [1]. Jednakże, sieć Internet nie była projektowana dla zapewnienia efektywnego przekazu takiego ruch. Z tego względu, rozpoczęto prace badawcze nad nowymi rozwiązaniami, które są nazywane sieciami zorientowanymi na przekaz informacji ICN (Information Centric Networks) [2] lub treści CAN (Content Aware Networks) [3]. Zasadniczym celem sieci ICN/CAN jest: i) zaoferowanie użytkownikom jednolitego dostępu do opublikowanych materiałów, który będzie niezależny od fizycznej lokalizacji replik treści; ii) zapewnienie efektywnego dostarczenia żądanej przez użytkownika treści biorąc pod uwagę wymagania dotyczące jakości przekazu oraz efektywnego wykorzystania zasobów sieci i serwerów treści. Jednym z kluczowych elementów sieci ICN/CAN jest rejestr treści, k[...]

Nowy algorytm adaptacji uwzględniający metryki jakości postrzeganej przez użytkownika dla adaptacyjnego strumieniowania wideo DOI:10.15199/59.2018.8-9.5


  Adaptacyjne strumieniowanie obrazów wideo HAS (HTTP Adaptive Video Streaming) [1], [2] jest obecnie powszechnie wykorzystywane przez dostawców usług wideo, np. YouTube, Netflix. Głównym celem metod HAS jest zapewnienie ciągłości odtwarzania obrazu wideo przez dostosowywanie jakości pobieranego wideo do warunków ruchowych panujących na ścieżce przekazu oraz aktualnego obciążenia serwera strumieniującego. W takim systemie podstawowym elementem odtwarzacza jest algorytm adaptacji. Odpowiada on za wyznaczenie reprezentacji wideo dla pobieranych kolejno jego segmentów. Istniejące obecnie algorytmy adaptacji dążą do wyboru reprezentacji o najwyższej przepływności bitowej, zakładając bezpośrednią zależność pomiędzy jakością wideo a przepływnością bitową. Należy jednakże zwrócić uwagę, iż wybór reprezentacji wideo o najwyższej przepływności niekoniecznie prowadzi do maksymalizacji jakości postrzeganej przez użytkownika. Przyczyną tego jest znaczne zróżnicowanie jakości zakodowanych segmentów, wynikające ze stosowanych metod kodowania oraz wpływ efektów zmiany reprezentacji (częstości, amplitudy) na jakość QoE. W artykule zaproponowano nowy algorytm, który bezpośrednio uwzględnia wartości metryk QoE do adaptacji, opracowano prototyp, implementując proponowany algorytm w odtwarzaczu dash.js oraz przeprowadzono eksperymenty w infrastrukturze badawczej PLLAB, których celem jest porównanie efektywności proponowanego rozwiązania. ANALIZA ALGORYTMÓW ADAPTACJI Celem algorytmów adaptacji jest dostosowanie reprezentacji pobieranych segmentów wideo do aktualnych warunków ruchowych na ścieżce przekazu oraz do obciążenia serwerów strumieniujących wideo. Można wyróżnić trzy podstawowe klasy algorytmów adaptacji [2]. - Algorytmy RBA (Rate-Based Adaptation) oparte na estymowaniu dostępnej przepływności bitowej. Wybierają one reprezentację wideo o przepływności bitowej nieprzekraczającej estymowanej przepływności bitowej dostępnej w sieci. Oszacow[...]

METODA ROZMIESZCZANIA TREŚCI DLA USŁUGI ADAPTACYJNEGO STRUMIENIOWANIA WIDEO WYKORZYSTUJĄCEJ TECHNIKĘ MGŁY OBLICZENIOWEJ DOI:10.15199/59.2018.8-9.35


  1. WPROWADZENIE Metody adaptacyjnego strumieniowania obrazów wideo HAS (HTTP Adaptive Streaming) [1] są obecnie powszechnie wykorzystywane przez dostawców usług wideo, takich jak Netflix, YouTube. Głównym celem metod HAS jest zapewnienie ciągłości odtwarzania obrazu wideo przez dostosowywanie jakości pobieranego wideo do warunków ruchowych panujących na ścieżce przekazu oraz aktualnego obciążenia serwera strumieniującego. Adaptacyjne strumieniowanie wymaga, aby materiały wideo były udostępnione w wielu reprezentacjach (nazywanych również profilami wideo), różniących się jakością wideo wynikającą z rozdzielczości wideo czy też zastosowanego kodowania. Z tego względu, metody HAS wymagają przechowywania znacząco większej ilości danych w porównaniu do metod dystrybucji treści bez adaptacji. Obecnie, dostawcy usług wideo wykorzystują zasoby chmurowe do przechowywania i strumieniowania wideo, oferując swoje usługi w modelu VaaS (Video as a Service) [2]. Model VaaS pozwala znacząco zmniejszyć koszty świadczonych usług dzięki rezygnacji z utrzymania dedykowanej infrastruktury, wykorzystaniu wysokiego stopnia agregacji zasobów w centrach danych oraz stosowaniu zasady "płać za użycie" w rozliczeniach z operatorem chmury. Jednakże, znacząca odległość pomiędzy użytkownikiem a centrum danych strumieniującym wideo powoduje istotny wzrost ruchu w sieci oraz zmniejsza efektywność adaptacji ze względu na występowanie znaczącego opóźnienia w pętli sterowania. Ponadto, koncentracja ruchu w centrum danych zwiększa prawdopodobieństwo wystąpienia natłoku skutkującego pogorszeniem jakości odtwarzanego wideo lub niedostępnością usługi wideo. Z tego względu, operatorzy usług wideo rozważają wykorzystanie mgły obliczeniowej (Fog Computing) [3] jako rozszerzenie usług chmurowych, umożliwiające przeniesienie popularnej treści wideo do urządzeń zlokalizowanych na brzegu sieci w otoczeniu użytkownika. Wykorzystanie techniki mgły obliczeniowej pozw[...]

Architektura systemu IIP


  Internet przyszłości jest obecnie tematyką wiodącą, realizowaną w ramach 7. Programu Ramowego Unii Europejskiej. Rokrocznie odbywają się dwa spotkania, dotyczące Internetu przyszłości (Future Internet Assembly) zrzeszające wykonawców projektów europejskich i narodowych, reprezentantów gremiów standaryzacyjnych (ITU-T, IETF, ETSI) oraz przemysłu, operatorów sieci i dostawców usług. Jednym z podstawowych zagadnień jest opracowanie architektury dla Internetu przyszłości. Rolę koordynacyjną w pracach nad tym zagadnieniem pełni Grupa FIArch (Future Internet Architecture Group). Dlaczego ta tematyka jest obecnie tak ważna? Internet w obecnej wersji odniósł ogromny sukces na świecie. Uważa się, iż jego rozwój jest wręcz wskaźnikiem rozwoju cywilizacji. Oczekuje się, iż w dającej się przewidzieć przyszłości (tj. do ok. roku 2020) liczba nowych urządzeń przyłączonych do Internetu będzie 10 razy większa niż obecnie. Wiąże się to z nowymi oczekiwaniami w wyniku wprowadzenia nowych zastosowań, w takich dziedzinach, jak e-zdrowie, e-edukacja, sieci otoczenia człowieka (domowe, samochodowe) itd. Jednocześnie powszechnie uznano, iż dalszy rozwój Internetu oparty na protokole IP będzie stanowił istotną barierę dla wprowadzenia nowych zastosowań. Podsumowanie ograniczeń obecnie działającego Internetu można znaleźć np. w [1]. Główne przyczyny tego stanu rzeczy wynikają z własności sieci TCP/IP. Ogólnie ujmując, sieć ta jest zbyt prosta, co powoduje iż dodanie do niej nowych funkcji powoduje powstanie skomplikowanych systemów, trudnych do zaimplementowania i utrzymania przez operatorów sieci. Przykładem rozwiązań sieciowych, które zostały przetestowane w prototypach, a jeszcze nie zaimplementowane, jest sieć NGN (Next Generation Network), która wymaga wprowadzenia sygnalizacji i rezerwacji zasobów do realizacji połączeń z tzw. gwarancją jakości przekazu pakietów, co jest z kolei wymagane dla wielu aplikacji. Jak wspomniano, zagadnienie opracowan[...]

Metody adaptacyjnego strumieniowania wideo oparte na standardzie MPEG DASH DOI:10.15199/59.2016.8-9.3


  Przedstawiono metody adaptacyjnego strumieniowania treści wideo oparte na standardzie MPEG DASH (Dynamic Adaptive Streaming over HTTP). Głównym celem metod adaptacyjnego strumieniowania wideo jest zapewnienie ciągłości odtwarzania wideo przez dostosowanie profilu pobieranego wideo do aktualnych warunków ruchowych panujących w sieci. Omówiono zasadę działania metod adaptacyjnego strumieniowania wideo, dokonano przeglądu obecnie stosowanych oraz opracowywanych algorytmów adaptacji, a także przedstawiono kierunki rozwoju metod adaptacyjnego strumieniowania wideo. Słowa kluczowe: MPEG DASH, adaptacyjne strumieniowanie wideo, multimedia Przekaz treści multimedialnych stanowi obecnie ponad 60% całkowitego ruchu w sieci Internet. Warto zwrócić uwagę, iż sieć Internet nie była projektowana dla zapewnienia efektywnej obsługi takiego ruchu. Z tego względu w ostatnim okresie zaproponowano nowe rozwiązania wspierające efektywną dystrybucję treści multimedialnych, takie jak sieci CDN (Content Delivery Networks) oraz sieci ICN/CAN (Information Centric Network/Content Aware Netowks) [1]. Wdrożenie tych rozwiązań wymaga znacznej rozbudowy infrastruktury sieci o nowe elementy wspierające przekaz treści, takie jak węzły przekazu treści, serwery przechowujące repliki treści czy też serwery umożliwiające rekodowanie i strumieniowanie obrazów wideo. Metody adaptacyjnego strumieniowania wideo są komplementarnym rozwiązaniem, w którym założono usprawnienie przekazu treści wideo przez zastosowanie algorytmów sterowania na poziomie aplikacji. Metody te są stosunkowo łatwe do wdrożenia, ponieważ nie wymagają modyfikacji infrastruktury sieci. Podstawowym celem metod adaptacyjnego strumieniowania treści jest zapewnienie ciągłości odtwarzania wideo przez dostosowanie profilu pobieranego wideo do zmieniających się warunków ruchowych w sieci, obciążenia serwerów oraz możliwości terminali. Wybór profilu wideo jest realizowany przez algorytm adaptacji w cz[...]

ALGORYTM STEROWANIA WĘZŁAMI POŚREDNICZĄCYMI SIECI BLE MESH DLA SYSTEMÓW INTERNETU RZECZY DOI:10.15199/59.2019.7.10


  1. WSTĘP Aplikacje i systemy Internetu Rzeczy IoT (Internet of Things) są uważane za kluczowy element ewolucji sieci Internet, w której obecnie przeważająca komunikacja interpersonalna zostanie w przyszłości zdominowana przez komunikację pomiędzy urządzeniami. Ewolucja ta wynika przede wszystkim z upowszechnienia urządzeń zdolnych do pozyskiwania, przetwarzania oraz przesyłania danych. Dostępność tych danych stanowi podstawę rozwoju nowych aplikacji i usług IoT wspierających człowieka w wielu obszarach jego działalności, obejmujących m.in. inteligentne miasta, budynki, transport, inteligentną energię, czy też inteligentne fabryki. Należy zwrócić uwagę, że usługi IoT mogą być oferowane dzięki zapewnieniu komunikacji pomiędzy urządzeniami. Ze względu na zróżnicowane zastosowania systemów IoT, które różnią się wymaganiami dotyczącymi zasięgu, przepływności bitowej, charakterystyk przekazu, wsparcia mobilności urządzeń, czy zużycia energii, obecnie istnieje wiele rozwiązań dla sieci IoT. Spośród tych rozwiązań należy wyróżnić rozwiązania wykorzystujące infrastrukturę operatorów, takie jak NB-IoT lub 5G MTC, jak również rozwiązania autonomiczne, w których komunikacja jest realizowana wykorzystując zasoby urządzeń IoT, np. ZigBee, BLE, LoRa. Jedną z technik sieciowych IoT, która zyskuje popularność ze względu na niskie koszty urządzeń oraz powszechną dostępność w urządzeniach końcowych użytkowników jest technika Bluetooth Low Energy (BLE) [1] wspierająca przekaz wieloskokowy (BLE MESH) [2]. Technika BLE MESH jest stosowana w systemach IoT [3] wymagających sporadycznego przekazu krótkich wiadomości (rzędu kilkunastu bajtów) pomiędzy węzłami rozmieszczonymi w stosunkowo niewielkiej odległości, np. do 50 m, często korzystających z własnych źródeł energii. Przykładem zastosowania techniki BLE MESH są systemy monitorowania parametrów środowiskowych wewnątrz obiektów, np. w salach wystawowych w muzeach lub halach produkcyjnych, a [...]

Internet przyszłości – nowe wyzwanie dla telekomunikacji (i nie tylko)

Czytaj za darmo! »

Zespół Technik Sieciowych (tnt.tele.pw.edu.pl) jest częścią Zakładu Teleinformatyki i Telekomunikacji, wchodzącego w skład Instytutu Telekomunikacji. Zespół ten, kierowany przez prof. Wojciecha Burakowskiego, tworzą: dr Halina Tarasiuk (adiunkt), dr Andrzej Bęben (adiunkt), dr Jarosław Śliwiński (adiunkt naukowy), dr Jordi Mongay Batalla (adiunkt naukowy), mgr Piotr Krawiec (doktorant), mgr Witold Góralski (asystent), mgr Piotr Wiśniewski (doktorant), mgr Przemysław Sagało (doktorant). Główne obszary aktywności Zespołu skupiają się wokół zagadnień związanych z architekturami sieci nowych generacji, opracowywaniem mechanizmów i algorytmów do sterowania przekazem informacji w sieciach, badaniami symulacyjnymi, projektowaniem i implementacją prototypowych rozwiązań, budowaniem instalacji pilotowych oraz ich testowaniem. Prowadzone badania dotyczyły lub dotyczą technik sieciowych opartych na ATM (Asynchronous Transfer Mode), IP (Internet Protocol), bezprzewodowych sieci LAN (Wireless LAN), xDSL (X Digital Subscriber Line) i ostatnio Internetu przyszłości (Future Internet), w tym również tzw. sieci świadomych przekazywanej treści (Content-Aware Networking). Rozw ój infrastruktury telekomunikacyjnej i stan obecny Infrastruktura sieci telekomunikacyjnych podlega ciągłym zmianom, przy czym zmiany te niekiedy mają charakter ewolucyjny, a niekiedy są raczej rewolucyjne. Przykładem zmiany ewolucyjnej było zastosowanie techniki NISDN (Narrowband Integrated Service Digital Network), która poszerzała funkcjonalność sieci telefonicznych o możliwości komutacji kanałów o różnych szybkościach bitowych (n x 64 kbit/s) oraz wprowadzała usługę przekazu pakietów. Z kolei wprowadzenie sieci Internet opartej na stosie protokołów TCP/IP (Transport Control Protocol/ Internet Protocol) można uważać jako przykład rewolucyjnego rozwoju infrastruktury telekomunikacyjnej. W porównaniu z sieciami opartymi na komutacji kanałów, w których główny nacisk poł[...]

W kierunku Internetu przyszłości: równoległe internety DOI:10.15199/59.2015.2-3.10


  Infrastruktura sieciowa obecnego Internetu opiera się głównie na protokole IPv4. Jednocześnie trwa transformacja z wersji IPv4 na wersję IPv6, co jest podyktowane koniecznością zwiększenia puli adresowej. Zasadniczymi cechami obecnego Internetu są: zapewnienie możliwości połączenia "każdy z każdym" (connectivity) oraz ogólnoświatowy zasięg. Sieć Internet nazywa się siecią sieci. Nie ma w niej bowiem zaimplementowanych mechanizmów sterowania całą siecią i odbywa się ono na zasadzie współpracy pomiędzy sąsiadującymi (połączonymi) ze sobą domenami. Podstawową usługą oferowaną obecnie w sieci Internet jest usługa best effort, zaś jakość przekazu danych polepsza się przez zwiększanie, tam gdzie jest to możliwe, przepływności łączy transmisyjnych. Niestety, zwiększanie to jest ograniczone, zwłaszcza w sieciach bezprzewodowych. Należy też podkreślić, co jest niezmiernie ważne, że pomimo stale rozbudowywanej sieci Internet, dotychczas nie było poważnej i rozległej terytorialnie jego awarii. Korzystanie z Internetu staje się coraz powszechniejsze. Stale pojawiają się nowe jego zastosowania dotyczące różnych dziedzin, począwszy od rozrywki do profesjonalnych aplikacji np. z obszaru e-zdrowie. Dlatego też dalszy rozwój Internetu w kierunku zwiększania jego zdolności obsługowych jest podstawowym zagadnieniem badawczym i wdrożeniowym na świecie. Ma to również odzwierciedlenie w obszarach badawczych określonych w realizowanym obecnie głównym programie europejskim Horyzont 2020 [1]. Sektor aktywności badawczej związanej z rozwojem Internetu jest umieszczony w dziale Technologii Informacyjno- Komunikacyjnych TIK (Information and Communications Technologies - ICT). Tak duże znaczenie rozwoju Internetu wynika z jego użyteczności i połączenia z rozwojem cywilizacyjnym, na przykład dotyczącym budowy inteligentnych miast. Chociaż zawsze z pewną ostrożnością należy patrzeć na prognozy, to jednak zakłada się, iż sieć Internet będzie się rozwijała [...]

 Strona 1