Wyniki 1-10 spośród 19 dla zapytania: authorDesc:"Agnieszka DURAJ"

Detecting QRS complex and classifying endogenous rhythms in pacemaker ECG signals

Czytaj za darmo! »

This article presents the problem of detection and classification of QRS complexes with electrocardiography signals coming from patients with implanted cardiac pacemaker. Special attention was focused on the use of wavelet - neural networks in above mentioned subject matter of investigation. Efficiency of detection of QRS complex was examined by algorithms working in time domain. During the inv[...]

Analiza komparatystyczna algorytmów detekcji zespołu QRS w sygnałach stymulatorowych

Czytaj za darmo! »

W artykule dokonano porównania algorytmów detekcji zespołu QRS przy wykorzystaniu sygnałów elektrokardiograficznych pochodzących od pacjentów z wszczepionym układem stymulującym pracę serca. Wykorzystano algorytmy Friesena oraz algorytm zaproponowany przez autorów, będący połączeniem sieci neuronowych oraz przekształceń falkowych. Eksperymenty prowadzono dla 150 sygnałów o częstotliwości 128Hz [...]

Zastosowania technologii RFID w medycynie

Czytaj za darmo! »

RFID to technologia automatycznej identyfikacji wykorzystująca fale radiowe w celu przekazywania i odbierania danych między identyfikatorem (zwanym również tagiem lub etykietą) a czytnikiem. W niniejszym artykule przedstawiamy możliwości zastosowania technologii RFID w medycynie. Wskazujemy na zagrożenia i sposoby ich ograniczeń. Obecnie sektor medyczny, jak podaje [12], jest drugim co do wielkości rynkiem wdrożeń rozwiązań technologii identyfikacji radiowej. Abstract. Radio frequency identification (RFID) is a wireless communication technology that is useful for precisely identifying object. RFID use radio frequency waves to transfer information between tagged objects and readers. In recent years, RFID technology has become a lively (vibrant) and rapidly expanding area of developmen[...]

Bezprzewodowe monitorowanie pacjenta – technologie, standardy i zagrożenia

Czytaj za darmo! »

Współczesna technika komunikacji bezprzewodowej spowodowała ogromny postęp w telediagnostyce i monitorowaniu stanów zdrowotnych na odległość. W literaturze przedmiotu można odnaleźć szerokie zastosowanie bezprzewodowego monitorowania. Opracowanie zawiera krótki przegląd technologii bezprzewodowego monitoringu, podaje wypracowane standardy, jak również zwraca uwagę na zagrożenia wynikające z zastosowanych technologii bezprzewodowych. Abstrakt: The present wireless communication technology caused a huge progress in diagnosis and monitoring wholesome states on distance. In literature, it is possible to find wide use wireless monitoring. In this paper, a short overview as to wireless technology and standards is presented as well as some hazards resulting from monitoring are emphasized. [...]

Finding outliers for large medical datasets

Czytaj za darmo! »

The paper deals with data mining which is a process of extracting valid, previous unknown, and ultimately comprehensible information for large datasets. One of very interesting problems appearing in scientific investigations are detection of mistakes in files of data, or the detection outlier. Finding the rare instance or the outliers is important in many disciplines and KDD (Knowledge Discovery and Data-Mining) applications. Streszczenie. Artykuł dotyczy metody wykrywania wyjątków w zbiorach danych dostrzegane jako różnego rodzaju anomalie, powstałe np. z powodu mechanicznego uszkodzenia, zmiany w zachowaniu systemu, czy choćby poprzez naturalny błąd człowieka. Jak się jednak wydaje, powyżej sformułowany problem badawczy jest bardzo istotny i nadal aktualny, szczególnie w przypadku medycznych zbiorów danych. Wykrycie wyjątków może zidentyfikować defekty, usunąć zanieczyszczenia danych a przede wszystkim stanowi podstawę w procesach podejmowania decyzji. (Wykrywanie wyjątków w dużych zbiorach danych medycznych) Keywords: outliers detection, k-means algorithm, DBSCAN algorithm Słowa kluczowe: wykrywanie wyjątków, algorytm k-średnich, algorytm DBSCAN Introduction Data mining is a process of extracting valid, previous unknown, and ultimately comprehensible information for large datasets. One of very interesting problems appearing in scientific investigations are detection of mistakes in files of data, or the detection outlier. Finding the rare instance or the outliers is important in many disciplines and KDD (Knowledge Discovery and Data-Mining) applications [7,8,12,14,15,17]. A more exhaustive list of applications that utilise outlier detection is: . Fraud detection - detecting fraudulent applications for credit cards, state benefits or detecting fraudulent usage of credit cards or mobile phones. . Loan application processing - to detect fraudulent applications or potentially problematical customers. . Intrusion detection - detecting[...]

Dobór miar odległości w hierarchicznych aglomeracyjnych metodach wykrywania wyjątków

Czytaj za darmo! »

Metody wykrywania wyjątków w zbiorach danych dostrzegane jako różnego rodzaju anomalie, powstałe np. z powodu mechanicznego uszkodzenia, zmiany w zachowaniu systemu, czy choćby poprzez naturalny błąd człowieka, są stosowane już od wielu lat. Jak się jednak wydaje, powyżej sformułowany problem badawczy jest bardzo istotny i nadal aktualny. Wykrycie wyjątków stanowić podstawę w procesach podejmowania decyzji. W pracy podany jest krótki przegląd hierarchicznych aglomeracyjnych metod wykrywania wyjątków skupiając się na doborze miar odległości w wymienionych algorytmach. Abstract. Data mining is a process of extracting valid, previous unknown, and ultimately comprehensible information for large datasets. One of very interesting problems appearing in scientific investigations are detection of mistakes in files of data, or the detection outlier. Finding the rare instance or the outliers is important in many disciplines and KDD (Knowledge Discovery and Data-Mining) applications. (Determination of measure distance in hierarchical methods of outliers detection) Keywords: outliers detection, hierarchical methods, measure distance Słowa kluczowe: wykrywanie wyjątków, metody hierarchiczne, miary odległości Wprowadzenie W procesie podejmowania decyzji opieramy się na przybliżonych zasadach działania - zachowania się obiektów. Znamy naturę zjawisk, pewne zależności heurystyczne. Zbieranie wszelkiego rodzaju informacji oraz gromadzenie danych ma duże znaczenie, jest to bowiem wstęp do zdobywania wiedzy. Obecnie człowiek jest zalewany strumieniami informacji, których nie jest w stanie szybko przeanalizować. Pozyskiwaniem wiedzy z dużych baz danych zajmuje się dziedzina wiedzy zwana eksploracją danych (ang. data mining), która ma charakter interdyscyplinarny obejmujący zagadnienia związane zarówno z teorią informacji, uczeniem maszynowym, jak i lingwistyką, czy też statystyką. Obejmuje ona kierunki badań dotyczące choćby reguł asocjacyjnych, klasy[...]

Detekcja wyjątków sygnałów biomedycznych w systemach fuzji informacji

Czytaj za darmo! »

W tradycyjnych systemach wspomagania decyzji, czy też systemach ekspertowych decyzja podejmowana jest na podstawie jednego typu informacji, najczęściej zgromadzonej przez eksperta w jednej bazie wiedzy. Silne rozproszenie danych powoduje potrzebę wykorzystania informacji z wielu różnych źródeł i dopiero wówczas wyznaczania określonej (globalnej) decyzji. Autorzy omówili problem detekcji wyjątków, wybrane metody ich wykrywania oraz wykazano znaczenie odpowiedniego doboru miary odległości w przypadku algorytmów hierarchicznych. W niniejszym opracowaniu omówiono zaś problem fuzji informacji skupiając się na modelach i architekturze systemów fuzji. Zaproponowano algorytm globalnej detekcji wyjątków w systemach fuzji danych. Podano również wyniki badań dla zastosowanych algorytmów tj. k-najbliższy sąsiad oraz klasyfikatora Bayes’a. Abstract. In traditional decision support systems or expert systems decision is taken on the basis of one type of information, mostly gathered by an expert in a knowledge base. A strong desire to spread the data makes use of information from many different sources and only then determine the specific (global) decision. The authors discussed the problem of outliers detection, the selected method of detection, and demonstrated the importance of appropriate selection of the distance measure for hierarchical algorithms. This paper discusses the problem of fusion data/information. We present models focusing on system architecture. Global detection algorithm is proposed exceptions in data fusion systems. Results are also given for the used algorithms such as k-nearest neighbor and the Bayes classifier. (Detection of biomedical signals in the systems with fusion of information) Keywords: outliers detection, data fusion, Słowa kluczowe: wykrywanie wyjątków, fuzja danych, fuzja informacji Wprowadzenie Każdy proces poznawczy związany z przetwarzaniem informacji jest wrodzoną zdolnością organizmów żywych osiągniętą w ba[...]

Modelling volatity of time series data containing outliers observations with ARCH effect DOI:10.15199/48.2019.01.10

Czytaj za darmo! »

Modeling and forecasting the volatility of time series has become a popular research area. Currently, this topic attracts the attention of scientists, researchers and economists who are focused on creating models, analytical tools to describe mathematically changes in real world. Process of data gathering is very complicated and exposed to many distortions. Nevertheless, modelling of data becomes more and more popular. It is worth mentioning that government, economic and engineering data are usually published as time series. Time series are the measurements of variable taken at regular intervals over time. Observations are made sequentially over time at regular intervals, such as daily, weekly, monthly, quarterly or hourly. Some time series data are incomplete, contain many missing observations, which may affect the estimation of the model and the result of its estimation. Commonly dataset has missing values that impacts on the model correctness. What is more, data is susceptible to change due to noise and exceptions. Statistical noise is an unexplained variability within a given data sample, which impairs the model’s correctness. An outlier is an observation that is inconsistent with the remainder of the given data set. Another definition says that an outlier is an important kind of deviation, which occurs in the data set as a result of measurement error. Outliers existence also in case of heavy-tailed distribution of population. [2] An outlier can be perceived as a valid data point or a representative of a noise. Identification of the outlier’s nature positively impacts on the process of fitting the best model to the given sample. Using the visualization methods is the best solution to discover outliers as these observations lie outside the overall pattern of distribution. Usually the distribution of observations differs from the normal distribution, which is perceived as one of the characteristics of the ti[...]

Detection of outliers in data streams using grouping methods DOI:

Czytaj za darmo! »

Introduction A data stream is a set of observations recorded in time intervals, i.e. containing a unit of time. They do not have to be data recorded at regular intervals, but usually these are data which have an equal time interval. An example of a data stream can be:  Air temperature measurement in the room every one second, which gives us a data stream consisting of the time value and the measurement result assigned to it in the form of degrees Celsius.  24-hour registration of the electrocardiographic signal using the Holter method, recording heart activity;  Electricityconsumption;  Record of monitoring at the airport;  Monitoring the workload of networks and websites;  Monitoring and recording of work;  Banking, telemetric and surveillance systems;  Tracking and analysis of biological and medical data;  Stock market data;  Data on all types of physical devices The data stream is defined as an ordered set of values of the analyzed feature or a specific phenomenon at different times (intervals) of time. It is also a series of observations recorded in a strictly defined time. Collection and storage of data in the form of streams increases the development of methods of processing them. There is also an increased problem of detection of outliers in data streams. The problem of detecting outliers in large data collections is, according to the authors, an important research problem. Among others, deterministic statistical methods, as well as methods based on distance and density, are used. However, none of the methods proposed in the literature is universal. A rich overview of this field is given in [1,2]. In addition, their effectiveness depends on the data set as well as on the parameters required for their operation. The authors dealt with the detection of outliers in their earlier works. Among other things, a method of dete-cting outliers[...]

 Strona 1  Następna strona »