Wyniki 1-2 spośród 2 dla zapytania: authorDesc:"Przemysław Buczkowski"

KONWOLUCYJNE SIECI GŁĘBOKIE W PROGRAMIE NAUCZANIA TECHNIK MULTIMEDIALNYCH W ZAKŁADZIE TELEWIZJI POLITECHNIKI WARSZAWSKIEJ DOI:10.15199/59.2017.6.43


  Techniki multimedialne od ponad 20 lat stały się nieodzownym elementem aplikacji projektowanych w systemach wytwarzania, gromadzenia i przesyłu sygnałów cyfrowych. To co leży w obszarze zainteresowań Instytutu Radioelektroniki i Technik Multimedialnych, z punktu widzenia badań naukowych i edukacji można scharakteryzować skrótem CREAMS, analizowanym w kontekście możliwych aplikacji tworzonych między innymi na telewizyjnych platformach cyfrowych: 1. Compression: kompresja obrazu i dźwięku. 2. Recognition: rozpoznawanie obiektów multimedialnych (MM) na potrzeby HCI (human computer interfaces). 3. Embedding: zanurzanie obiektów MM w innych obiektach MM na potrzeby podpisu wodnego i tajnej komunikacji. 4. Annotation: indeksowanie obiektów MM w celu ich inteligentnego wyszukiwania. 5. Modelling 3D: modelowanie 3D na bieżąco, na potrzeby HCI. 6. Security: szyfrowanie i podpis cyfrowy obiektu MM na potrzeby bezpiecznej archiwizacji i komunikacji. Zauważmy, że tak sformułowane zagadnienia nie odnoszą się wprost do aktualnej technologii i narzędzi, które są lub potencjalnie mogą być wykorzystywane do ich rozwiązywania Niektóre z zagadnień CREAMS takie jak kompresja, czy bezpieczeństwo danych były i są przedmiotem intensywnych prac normalizacyjnych i doczekały się szeregu popularnych norm technicznych. Wszędzie tam, gdzie potrzebna jest wygodna wymiana informacji multimedialnej powstały efektywne formaty danych. Na większe zainteresowanie gremiów normalizacyjnych oczekują znaki wodne i steganografia cyfrowa. Inne zagadnienia jak rozpoznawanie, indeksowania (adnotacja) i modelowanie 3D na potrzeby interfejsu człowiekmaszyna, pomimo licznych prób (np. MPEG-7) są mniej podatne na zabiegi normalizacyjne. Z roku na rok rośnie znacząco liczba doniesień naukowych o kolejnych sukcesach technik konwolucyjnych sieci neuronowych (CNN) w zagadnieniach CREAMS. Proponowane rozwiązania "neuronowe" coraz częściej przewyższają najlepsze dotą[...]

Przegląd nowych metod kompresji obrazu wykorzystujących uczenie maszynowe ze szczególnym uwzględnieniem uczenia głębokiego DOI:10.15199/59.2018.6.60


  1. WSTĘP Ilość generowanych danych rośnie w zawrotnym tempie. Wynika to z rosnącej liczby systemów informatycznych, aktywności użytkowników oraz zwiększania dostępności Internetu. Raczkujący dopiero Internet Rzeczy może w dużym stopniu przyczynić się do zwiększenia ilości generowania nowych danych. Oprócz kosztu związanego z przechowywaniem tych danych, dodatkowy koszt pojawia się gdy dane trzeba przesłać. Według CISCO ruch IP w roku 2016 wynosił 96 tys. PB miesięcznie [4]. Raport ten wykazuje, że oprócz ilości przesyłanych danych wzrasta również samo tempo tego wzrostu. Dużą część omawianego transferu stanowią obrazy (grafika rastrowa ale też materiał wideo), które są wszechobecne na stronach internetowych czy usługach udostępniających przestrzeń w chmurze, a które w związku z rozwojem matryc wyświetlaczy (pośrednio) jak i rozwojem sensorów w aparatach i kamerach cyfrowych (bezpośrednio) zajmują coraz więcej przestrzeni dyskowej. Aby ograniczyć koszty związane z przechowywaniem i przesyłaniem danych oraz umożliwić wydajne funkcjonowanie systemów informatycznych stosowana jest kompresja. 2. KOMPRESJA Kompresja jest sposobem zapisu informacji tak, aby zmniejszyć wielkość zbioru danych. Zazwyczaj osiągane jest to poprzez zmniejszenie redundancji w danych. W skutek takiej operacji otrzymywany jest ten sam (lub zbliżony) zestaw informacji jednak zapisany na mniejszej liczbie bitów. Operacja odwrotna nosi nazwę dekompresji. Zestaw informacji po dekompresji może być identyczny z początkowym, lub przybliżony. Ze względu na ten fakt metody kompresji dzielą się na metody stratne i bezstratne. Metody bezstratne zmieniają tylko zapis (kodowanie) informacji jednak nie zmieniają jej treści. Metody stratne uzyskują znacząco wyższy stopień kompresji ponieważ są w stanie wybiórczo "zapomnieć" te części informacji, których brak nie dyskwalifikuje ich dalszego użytkowania. Ostatnim krokiem stratnych algorytmów kompresji jest zazwyczaj[...]

 Strona 1