• LOGOWANIE
  • KOSZYK
  • KONTAKT
    • WYDAWNICTWO
    • REDAKCJE
      • ATEST - OCHRONA PRACY
      • AURA OCHRONA ŚRODOWISKA
      • CHŁODNICTWO
      • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
      • DOZÓR TECHNICZNY
      • ELEKTROINSTALATOR
      • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
      • GAZ, WODA I TECHNIKA SANITARNA
      • GOSPODARKA MIĘSNA
      • GOSPODARKA WODNA
      • HUTNIK - WIADOMOŚCI HUTNICZE
      • INŻYNIERIA MATERIAŁOWA
      • MATERIAŁY BUDOWLANE
      • OCHRONA PRZED KOROZJĄ
      • OPAKOWANIE
      • PROBLEMY JAKOŚCI
      • PRZEGLĄD ELEKTROTECHNICZNY
      • PRZEGLĄD GASTRONOMICZNY
      • PRZEGLĄD GEODEZYJNY
      • PRZEGLĄD MECHANICZNY
      • PRZEGLĄD PAPIERNICZY
      • PRZEGLĄD PIEKARSKI I CUKIERNICZY
      • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
      • PRZEGLĄD TELEKOMUNIKACYJNY
      • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
      • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
      • PRZEMYSŁ CHEMICZNY
      • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
      • PRZEMYSŁ SPOŻYWCZY
      • RUDY I METALE NIEŻELAZNE
      • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
      • WIADOMOŚCI ELEKTROTECHNICZNE
      • WOKÓŁ PŁYTEK CERAMICZNYCH
    • REKLAMA
    • DRUKARNIA
    • KOLPORTAŻ
  • PRENUMERATA
  • LISTA CZASOPISM
    • ATEST - OCHRONA PRACY
    • AURA OCHRONA ŚRODOWISKA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • DOZÓR TECHNICZNY
    • ELEKTROINSTALATOR
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • ODZIEŻ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  • WIRTUALNA CZYTELNIA
 
PORTAL INFORMACJI TECHNICZNEJ - NAJWIĘKSZA BAZA ARTYKUŁÓW TECHNICZNYCH ONLINE - AKTUALNIE 121782 PUBLIKACJE
  •   CZASOPISMA  
    • ATEST - OCHRONA PRACY
    • AURA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • ELEKTROINSTALATOR
    • DOZÓR TECHNICZNY
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY - WIADOMOŚCI TELEKOMUNIKACYJNE
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  •   KSIĄŻKI 
  • WIRTUALNA CZYTELNIA
  •   PRENUMERATA 
  •   REKLAMA 
  •   DRUKARNIA 
  •   KOLPORTAŻ 
  •   WYDAWNICTWO
  • PRZEGLĄD ELEKTROTECHNICZNY
  • 2019-11

PRZEGLĄD ELEKTROTECHNICZNY

Miesięcznik ISSN 0033-2097, e-ISSN 2449-9544 - rok powstania: 1919
Czasopismo Stowarzyszenia Elektryków Polskich (SEP)

Montaż struktur AlGaN/GaN na Si do podłoży DBC w oparciu o technologię SLID oraz zgrzewania dyfuzyjnego mikroproszkiem Ag
(ang. Assembly of AlGaN/GaN structures on Si to BDC substrates by using SLID technology or diffusion sintering with Ag micropowder)

DOI:10.15199/48.2019.11.02
Ryszar KISIEL Mariusz SOCHACKI Andrzej TAUBE Marek GUZIEWICZ 
Streszczenie
Wykonano i zbadano układy połączeń chipów tranzystora HEMT AlGaN/GaN/(111)Si, metalizowanych warstwami montażowymi Cu, Ag lub Au, z podłożami DBC wykorzystując technologię SLID oraz technologię zgrzewania mikroproszkiem Ag. Siły adhezji połączeń chipów, w których zastosowano pośrednią galwaniczną warstwę (1 m)Sn, dobraną siłę nacisku, temperaturę 280oC i czas 30 min. dla procesu spiekania, są powyżej 22 MPa. Połączenie chipu ze spodnią metalizacją Ag zgrzewane z DBC poprzez mikroproszek Ag cechuje siła adhezji powyżej 22 MPa.
Słowa kluczowe: montaż, technologia połączeń SLID, DBC, HEMT, AlGaN/GaN/Si
Abstract
The connection systems of AlGaN/GaN on (111)Si chip metallized with Cu, Ag or Au (mounting layers) were preformed to DBC plates using Solid Liquid phase Interdiffusion (SLID) technology and Ag sintering bonding, and the systems were verified. The chip adhesion forces for DBC samples with intermediate galvanic (1 m)Sn layer, and the load force matched to the chip size, temperature of 280oC and time of 30 min. for the sintering process, are above 22 MPa. Ag sintering bonding of the chip with backside Ag metallization to DBC substrate is exceeding 22 MPa.
Keywords: assembly, SLID technology, DBC, HEMT transistor, AlGaN/GaN/Si
Obecnie konstruowane elementy półprzewodnikowe na materiałach o szerokiej przerwie, jak np. GaN i SiC, przeznaczone dla elektroniki wysokich mocy i napięć wymagają opracowania wysokiej jakości połączeń z obudową i elektrycznych wyprowadzeń. Technologia SLID (Solid Liquid Interdiffusion) jak i technologia zgrzewania nano- i/lub mikroproszkami Ag wykorzystywane są do montażu elementów półprzewodnikowych do podłoży ceramicznych lub w obudowach metalowych. W technologii SLID wykorzystuje się zjawiska zachodzące między materiałami o wysokich temperaturach topnienia (np. Ag, Au, Cu, Ni) a materiałami niskotopliwymi (np. Sn czy In) [1- 4]. Proces SLID prowadzi się w temperaturach nieznacznie przekraczających temperaturę topnienia materiału niskotopliwego. Stopiony materiał reaguje z materiałem wysokotopliwym tworząc związki międzymetaliczne odpowiedzialne za jakość połączenia. Cechą procesu SLID opartego na Sn jest to, że można go prowadzić w temperaturach nieznacznie przekraczających temperaturę topnienia Sn (232oC), a więc w temperaturach zbliżonych do lutowania lutami opartymi na Sn (np. typu SAC). Połączenia wykonywane tą technologią cechują na ogół dobre właściwości mechaniczne, a właściwości elektryczne i cieplne zależą od typu powstających związków międzymetalicznych. Technologia zgrzewania nano- i/lub mikroproszkami Ag opiera się na dyfuzyjnym połączeniu między metalizacjami struktury półprzewodnikowej a metalizacją podłoża z udziałem warstwy proszku Ag [5-7]. Proces zgrzewania prowadzi się pod naciskiem i w wyższych temperaturach niż proces SLID, aby umożliwić wzajemną dyfuzję metali. Duża energia powierzchniowa nano - i mikrocząstek Ag pozwala na prowadzenie procesu w temperaturach nieznacznie przekraczających 300oC. W przypadku wykorzystywania tylko nanocząstek Ag temperaturę procesu można obniżyć do ok. 200oC. Wykorzystywanie w montażu podłoży DBC (Direct Bond Copper), w których ceramika alundowa pokryta jest obust [...]

  • ZAKUP JEDNORAZOWY I DOSTĘP DO WIRTUALNEJ CZYTELNI
  • PRENUMERATA PAPIEROWA
  Czytaj za darmo! »
 

Prenumerata

Szanowny Kliencie!
Zamów roczną prenumeratę w wersji PLUS a uzyskasz dostęp do archiwalnych publikacji tego czasopisma.
Nie zwlekaj - skorzystaj z tysięcy publikacji o najwyższym poziomie merytorycznym.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 780.00 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 702.00 zł *)
prenumerata papierowa roczna - 690.00 zł
prenumerata papierowa półroczna - 345.00 zł
prenumerata papierowa kwartalna - 172.50 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »


Bibliografia

[1] Chang T-Ch, Chang J-Y., Chung T-H. and W-Ch.Lo, Dualphase solid-liquid interdiffusion bonding, a solution for the die attachment of WBG, IEEE (2012), 978-1-4673-4944-4
[2] Larson A., Tolleefsen T.A., Liquid Solid Diffusion (LSD) Bonding, IMAPS/EMPC 2017 Conf. Proc. Warsaw, Poland
[3] Kisiel R., Mysliwiec M., Solid-Liquid Interdiffusion Bonding Based on Au-Sn Intermetallic for High Temperature Applications, 41st International Spring Seminar on Electronics Technology Conf. Proc. ISSE, Zlatibor (2018), 1-5
[4] Mysliwiec M., Kisiel R., Applying Sintering and SLID Bonding for Assembly of GaN Chips Working at High Temperatures, 7th Electronic System-Integration Technology Conference (ESTC), Dresden (2018), 1-5
[5] Siow K.S., Are Sintered Silver Joints Ready for use as Interconnect Material in Microelectronic Packaging?, Journal of Electronic Materials, (2014) DOI:10.1007/s11664-013-2967-3
[6] Chua S.T., Siow K.S., Microstructural studies and bonding strength of pressureless sintered nano-silver joints on silver, direct bond copper (DBC) and copper substrates aged at 300oC, Journal of Alloys and Compounds, 687 (2016), 486-498
[7] Yeom J., Li C-F., Suganuma K., Sintering mechanism of micron/submicron-size silver particles, ICEP-IAAC 2018 Proc., TC3-4 (2018), 121-123
[8] Lemettre S., Isac N., Hammami S., Seok S., Moulin J., Bosseboeuf A., Alphonse P., Detection of Liquefaction by DSC for Cu-Sn TLP Bonding, IEEE 2018, 68th Electronic Components and Technology Conference (ECTC), San Diego, CA ( 2018), 568-573

Rekomenduj znajomym
  • facebook
  • twitter
  • gplus
  • pinterest

INNE PUBLIKACJE W TYM ZESZYCIE

Active Teaching and Learning as a Remedy for Engineering Education Problems - DOI:10.15199/48.2019.11.01
Piotr DĘBIEC 
Rapid development of information technologies has changed the way people communicate and function. When it comes to students, they use smartphones not only as a basic communication and entertainment tool, but also as a main source of knowledge. This source is available at any place and time, providing almost immediately the information needed in a compact and attractive form. Unfortunately, smartphones are increasingly used to do the assignments quickly and superficially, without understanding the concepts or problem solutions. For instance, the instructional videos and ready-made solutions available on the Internet allow to quickly "learn" the topic, "do" the project, or "solve" the problem. This surface learning phenomenon is very common, and teachers, as a gatekeepers, are helpless in enforcing a deeper understanding of the course material [1]-[2]. On the other hand, academic curricula are overloaded and cognitive requirements for engineering students are too high in relation to their skills and background. This causes the high dropout rate among the freshmen and promotes memorizing and rote learning. Another problem arises from a big change in student attitude toward lectures and lecturers. The todays’ net generation of students are more daring in showing dissatisfaction during classes. If at some point they do not understand the presented topic, they start talking to each other, playing games, sending e-mails, or napping. This students’ behavior is very annoying and stressful for teachers that devote a great amount of time and effort in preparation of classes. The author was experiencing this for a few years before he reviewed the scientific literature in search of a solution to the problem. An analysis of the research findings and own observations have changed his way of thinking about the role of teacher and student, and processes of teaching and learning. This in turn encouraged him to carry out experi więcej »

Analiza energii elektrycznej pobieranej w obiektach użyteczności publicznej - DOI:10.15199/48.2019.11.26
Marek SUPRONIUK Jacek PAŚ 
Podstawowym zadaniem instalacji elektrycznej jest dostawa energii elektrycznej do odbiorników w sposób zapewniający niezawodność zasilania, jakość energii, i spełnienie wymagań bezpieczeństwa. Celem monitoringu instalacji elektrycznej jest ocena stanu technicznego pod względem bezpieczeństwa użytkowników jak i również minimalizowanie kosztów związanych z eksploatacją i obsługą. W dzisiejszych czasach w budynkach coraz częściej instalowane są systemy których celem jest monitorowanie parametrów instalacji elektrycznej ze szczególnym uwzględnieniem aspektów jakości energii elektrycznej. Celem takiego monitoringu jest między innymi ocena poziomu jakości energii elektrycznej w instalacji, dzięki porównaniu wielkości mierzonych z wartościami dopuszczalnymi określonymi w obowiązujących przepisach [1-6]. Systemy eksperckie zawarte w systemach diagnostycznych funkcjonują też w wielu innych dziedzinach nauki. Przykładam takiej analizy jest system diagnostyczny do monitorowania parametrów centrów defektowych w materiałach półprzewodnikowych w którym identyfikacja danego centrum następuje po weryfikacji z bazą wiedzy dostępną w systemie [7]. Dodatkowo dzięki urządzeniom monitoringu istnieje możliwość bieżącej diagnostyki zaburzeń elektromagnetycznych występujących w instalacji na podstawie bieżących wyników pomiarów bądź widocznych skutków zakłóceń w pracy urządzeń, systemów elektrycznych i elektronicznych. Taki sposób diagnostyki umożliwia poznanie przyczyn i natury zaburzeń, w tym zakłóceń oraz umożliwia stosowanie odpowiednich środków do przeciwdziałania tym zaburzeniom. Należy zaznaczyć, iż w większości przypadków zagadnienia związane z monitoringiem jakości energii elektrycznej są bagatelizowane podczas eksploatacji budynków, co np. zwiększa koszty bieżące użytkowania budynku. Zwraca się na nie uwagę dopiero w przypadku znacznego wzrostu cen za energię elektryczną pobieraną w danych okresach rozliczeniowych lub w przypadku awa więcej »

Analiza interakcji w układach hybrydowych MIDC - DOI:10.15199/48.2019.11.52
Mateusz POLEWACZYK Sylwester ROBAK 
Układy HVDC (ang. High Voltage Direct Current - wysokie napięcie prądu stałego) stają się coraz bardziej popularne w systemach elektroenergetycznych na świecie. Wzrost popularności tych układów powoduje, że stacje przekształtnikowe, należące do różnych połączeń HVDC, mogą znajdować się w bliskim sąsiedztwie elektrycznym sprawiając, że praca jednej ze stacji może wpływać na funkcjonowanie stacji sąsiadującej. Najpopularniejszymi obecnie układami HVDC są układy wykorzystujące przekształtniki LCC (ang. Line Commutated Converters) o komutacji sieciowej. Wykonane są one głównie w technice tyrystorowej, pozwalającej na osiąganie największych dostępnych obecnie mocy przesyłowych. Współcześnie obserwuje się znaczny wzrost liczby układów z przekształtnikami VSC (ang. Voltage Source Converters) o komutacji wymuszonej FCC (ang. Forced Commutated Converters). Wynika to z właściwości oferowanych przez układy tego typu. Pozwalają one na zasilanie sieci pasywnych, mają możliwość black-startu, oferują bardzo dobre właściwości w zakresie regulacji napięcia i częstotliwości oraz niezależnego regulowania przepływów mocy czynnej i biernej. Ponadto praca takich układów nie wymaga poboru mocy biernej [1]. Właściwości te znajdują zastosowanie w przyłączaniu morskich farm wiatrowych, których obecny i przyszły znaczny rozwój jest związany z wprowadzaniem odpowiednich wytycznych oraz regulacji prawnych [2, 3]. Co więcej, obserwowany jest ciągły wzrost osiąganych mocy znamionowych połączeń HVDC VSC, ze względu na rozwój energoelektronicznych przyrządów mocy (w tym tranzystorów, z których są one głównie budowane). Dzięki temu należy się spodziewać, że w przyszłości będzie możliwość przyłączania za pomocą tych układów nawet największych morskich farm wiatrowych [4]. Wymieniony zakres zastosowań układów HVDC oraz zauważalny postęp w osiąganych parametrach pozwalają stwierdzić, że układy HVDC, z przekształtnikami różnej topologii, będą coraz częściej więcej »

Analiza możliwości zastosowania przesłony w rurociągu jako zwężki do ciągłego pomiaru strumieni masy gazu - DOI:10.15199/48.2019.11.10
Artur ANDRUSZKIEWICZ Wiesław WĘDRYCHOWICZ Piotr SYNOWIEC Piotr PIECHOTA 
W praktyce przemysłowej najczęściej do pomiaru strumieni przepływów wykorzystuje się przepływomierze oparte na pomiarze różnicy ciśnień na elemencie spiętrzającym. Należą do nich m.in. kryzy i zwężki [1,2,3,4], a w przypadku pomiarów chwilowych różnego typu rurki spiętrzające. Jak pisze w swojej pracy Kabza [5]: "ocenia się, że około 50% wszystkich instalowanych w przemyśle przepływomierzy stanowią przepływomierze hydrodynamiczne, w których dominują przepływomierze zwężkowe". W wielu przemysłowych instalacjach przepływowych zamontowane są przesłony wykorzystywane głównie do regulacji strumieni przepływającego gazu. Ponieważ zwężają one przepływ czynnika to wydaje się, że można je z powodzeniem wykorzystać do ciągłego pomiaru strumienia przepływu. Celem pracy jest sprawdzenie możliwości wykorzystania przesłony zamontowanej w rurociągu o przekroju kołowym do ciągłego pomiaru strumieni przepływającego w instalacji powietrza. Wyznaczono wartości współczynników przepływu Cp dla rożnego położenia przesłony w rurociągu, w zależności od liczby Reynoldsa. Dla wyznaczonych wartości współczynnika przepływu obliczono następnie strumienie masy gazu i wyznaczono odchyłki pomiaru w porównaniu do rzeczywistego strumienia masy powietrza w instalacji mierzonego zwężką Venturiego [6]. Realizacja Pomiaru Badania przeprowadzono na instalacji, której schemat pokazano na rysunku 1. Rys. 1. Sch więcej »

Analiza porównawcza wskaźników oraz właściwości niezawodnościowych elektroenergetycznych linii napowietrznych i kablowych średniego napięcia - DOI:10.15199/48.2019.11.07
Andrzej Ł. CHOJNACKI 
Poprawna i niezawodna praca sieci średniego napięcia jest możliwa w przypadku niezawodnej pracy poszczególnych urządzeń. Linie elektroenergetyczne SN są jednym z najważniejszych elementów sieci dystrybucyjnych. Umożliwiają one przesył energii elektrycznej przy najkorzystniejszych z technicznego i gospodarczego punktu widzenia wartościach napięć. Uszkodzenia linii wpływają w zdecydowanym stopniu na awaryjność sieci, w których są eksploatowane, a więc determinują straty gospodarcze występujące u odbiorców oraz dystrybutorów energii elektrycznej [1, 2, 3, 4, 7]. W celu zapewnienia wysokiej niezawodności linii należy monitorować ich pracę oraz zbierać dane na temat ich eksploatacji. Powyższe dane powinny być wykorzystane do analizy możliwych stanów eksploatacyjnych, a także wyboru najkorzystniejszej konstrukcji linii nowoprojektowanych. W ostatnich kilku latach coraz więcej Spółek Dystrybucyjnych podejmuje się realizacji inwestycji polegającej na zastąpieniu linii napowietrznych SN liniami kablowymi. Jej koszty są szacowane w miliardach złotych, a okres realizacji obejmuje wiele dziesięcioleci. Stąd, jeżeli inwestycja okaże się chybiona, może przynieść fatalne skutki gospodarcze dla tych spółek. Powstaje więc pytanie, czy linie kablowe są optymalnym pod względem niezawodnościowym rozwiązaniem technicznym linii dystrybucyjnych SN? Czy tańsze od linii kablowych linie niepełnoizolowane nie są w tym zakresie korzystniejszym wariantem? W artykule zaprezentowano szereg właściwości niezawodnościowych trzech rozwiązań konstrukcyjnych linii średniego napięcia eksploatowanych w Polsce. Należą do nich linie napowietrzne z przewodami gołymi, aktualnie dominujące w sieciach terenowych oraz linie kablowe z kablami o izolacji z polietylenu usieciowanego eksploatowane przede wszystkim w miastach. Najnowszym rozwiązaniem są linie napowietrzne z przewodami niepełnoizolowanymi, które w sposób ewolucyjny zastępują linie napowietrzne z przewodam więcej »

Application of RCD and AFDD in low-voltage electrical installations for protection against fire - DOI:10.15199/48.2019.11.04
Stanislaw CZAPP 
One of the sources of fire in buildings is a leakage current flowing through the resistive elements, e.g. conductive dust or a carbonized insulation of conductors. Such a current flow may warm up these elements to the temperature causing fire [1-3]. Due to leakage currents, a fire of wooden poles of an overhead line may arise [4]. In some cases, an explosion of explosive conductive materials may occur. When organic materials like wood or straw are heated by the current for a relatively long time, their gradual transition to the pyrophoric phase has to be taken into account. Because of the heating, the fire resistance of these materials significantly decreases - the minimum ignition temperature changes from 250 ºC to even 120 ºC [3, 5]. Fire may also be ignited by arc short-circuits or by a series arcing due to mechanical damage of a cable or a plug (e.g. cable crushing by a heavy object) [6, 7]. As protection against fire in low-voltage electrical installations, residual currents devices (RCDs) are used [8]. These devices disconnect supply in case of detection of earth current, which may initiate fire [3]. Such devices are also proposed to be a protective one in conjunction with fire alarm sensors [9]. However, some types of arc faults may not be detected by RCDs, especially series arcing, because no residual current flows in case of such a fault. For protection against such an accident, arc fault detection devices (AFDDs) are recommended to be used. In some countries, their application is obligatory [10, 11]. The further part of the paper presents the principles of RCDs and AFDDs application in low-voltage electrical installation, in order to prevent fire. Residual current devices in fire protection Leakage current flowing through the resistive elements may produce an amount of heat sufficient to initiate fire. This amount of heat is expressed by the following dependence: (1) Pth = Uo . I where: Pth - więcej »

Axial forces of magnetic pull in a disc type induction motor – experimental test. - DOI:10.15199/48.2019.11.34
Tomasz WOLNIK Tadeusz GLINKA 
This paper presents results of investigation of magnetic pull axial forces in disk induction motor with a single stator and single rotor (abbreviated as AFIM11). Machines with axial flux tend to be more and more widely utilized as generators and motors both [1,2,3]. Their specific properties which are determined by the shape of the magnetic circuit, make them particularly well suited to be used in applications, where one of the main criteria is limited axial length of the machine [4,5]. One of the designs of the magnetic circuit of disk induction motor is a motor with a single air-gap, that is with one stator and one rotor [4,5,6]. Application of such motor design is justified above all in low power motors, where for economical reasons there is no need of using popular designs with double stator and double rotor [5]. However, a significant drawback of this solution is found in high values of magnetic pull axial forces acting between stator and rotor and present during normal operation of the machine [4,5,6,7]. These forces bear a considerable impact on the bearings' operation, therefore they must be taken into account in the process of mechanical design and selection of machine components [4,5,6]. Numerous publications may be found on measurements and analyses of radial magnetic pull in cylindrical motors. Results of such works are presented, among others, by Dorrell et al. [8,9] and Tenhunen et al. [10]. However, there are no publications on issue of axial magnetic pull in disk motors, even though this pull's impact on disk motor operation is quite significant. Results of experimental investigation of magnetic pull axial forces in induction disk motor are presented in the current paper (model of this motor is shown in Fig.1). Measurements were conducted at dedicated test stand equipped with EMS70-5kN strain gauges (Fig.3). The main aim of this work was to determine the values of magnetic pull axial forces and their variat więcej »

Badania przepływu płynu nieściśliwego przez wybraną kryzę segmentową - DOI:10.15199/48.2019.11.16
Andrzej MROWIEC Marcin HERONIMCZAK 
W wielu gałęziach przemysłu występuje konieczność nieprzerwanej kontroli procesów technologicznych, a w tym też jego parametrów. Jednym z nich jest ciągły pomiar strumienia objętości przepływającej cieczy. Najbardziej pewnymi i niezawodnymi w działaniu urządzeniami do realizacji tego zadania są przepływomierze spiętrzające. Wykorzystuje się w nich nagłe przewężenie, na które napotyka na swojej drodze płynąca ciecz w badanym rurociągu. W przewężeniu tym występuje szybki wzrost prędkości płynącej cieczy, który powoduje powstanie różnicowego ciśnienia statycznego w tym obszarze. Kryzy są chętnie stosowane do pomiarów mimo swoich wad, wśród których można wymienić: trwałą stratę ciśnienia przy przepływie strumieniu oraz niską zakresowość (4:1). Sam pomiar przepływającego strumienia płynu polega na wyznaczeniu wartości ciśnienia różnicowego na elemencie spiętrzającym [1, 2, 3]. Z elementów spiętrzających na szczególną uwagę zasługują kryzy z których kryza segmentowa pozwala na pomiary przepływu: cieczy zanieczyszczonych ciałami stałymi tworzącymi zawiesiny czy zapylonych gazów. Zaletą kryzy segmentowej jest to iż otwór przepływowy stanowi odcinek koła co prowadzi do jednostronnego przewężenia przekroju rurociągu [4, 5]. Zaleca się aby dla cieczy zanieczyszczonej otwór kryzy segmentowej umiejscowiono w dolnej części zwężki. Zapewnia to swobodny przepływ zanieczyszczeń w mierzonym płynie, dzięki czemu unika się tworzenia osadu ograniczającego przepływ w rurociągu przed zwężką [6]. Celem artykułu jest porównanie wyników otrzymanych z badań numerycznych z obliczeniami inżynierskimi i danymi eksperymentalnymi uzyskanymi dla kryzy segmentowej (o przewężeniu β = 0,5) przy przepływie płynu. Celem jest też wyznaczenie minimalnej wartości liczby Re, dla której można już uznać, że współczynnik przepływu ma stałą wartość dla badanej kryzy. Metodyka przeprowadzenia badań Badaniom eksperymentalnym i numerycznym poddano kryzę segmentow więcej »

Badanie modułu przyspieszenia na potrzeby diagnostyki czujników inercyjnych - DOI:10.15199/48.2019.11.37
Rafał BIAŁEK Michał WIŚNIOS Marek KUCHTA 
Czujniki inercyjne wykonane w technologii MEMS (ang. Micro Electro Mechanical Systems) są szeroko wykorzystywane w wielu aplikacjach związanych z wykrywaniem ruchu człowieka, maszyn czy pojazdów [1,2,3]. Obecnie rozwijana jest nawigacja inercyjna, w której podstawowymi czujnikami są akcelerometry i żyroskopy. Podstawową zaletą takiego sytemu w odróżnieniu od odbiornika GPS (ang. Global Positioning System) jest możliwość jego funkcjonowania niezależnie od układów zewnętrznych [4,5,6]. Na rys.1 przedstawiono przykładowy schemat blokowy algorytmu umożliwiającego wyznaczenie położenia. Układ równań różniczkowych nieliniowych Układ równań różniczkowych liniowych Obliczenia trygonometryczne Mnożenia algebraiczne Całkowanie numeryczne Prędkość kątowa Przyspieszenie liniowe Położenie Rys. 1. Schemat blokowy algorytmu dla systemu nawigacji inercyjnej Dokładność wyznaczania położenia w takich systemach zależy od bardzo wielu czynników [7]. Jednym z nich jest systematyczny błąd pomiaru przyspieszenia, który po podwójnym całkowaniu rośnie z kwadratem czasu. W celu zwiększenia dokładności pomiaru w takim systemie niezbędne jest wyznaczenie przesunięcia osi akcelerometru (offset) [8, 9,10]. Celem pracy było wykonanie pomiarów umożliwiających porównanie wybranych czujników inercyjnych pod kątem stabilności modułu przyspieszenia przy zmianie orientacji przestrzennej. Ponadto wykonano kalibrację polegającą na korekcie przesunięć dla każdej z osi akcelerometru tak aby wartość zmierzonego przyspieszenia grawitacyjnego wynosiła w każdym przypadku 1g. Stanowisko laboratoryjne W ramach pracy przeprowadzono badania następujących czujników wykonanych w technologii MEMS: - LSM9DS1 firmy STMicroelectronics [11], więcej »

Badanie rezonansów lokalnych i złożonych w lotniczych zespołach napędowych z wykorzystaniem metod FAM-C i FDM-A - DOI:10.15199/48.2019.11.15
Jerzy LEWITOWICZ Andrzej SZELMANOWSKI Andrzej GEBURA Andrzej PAZUR Edyta FRANCZUK 
Obróbka kół zębatych w dzisiejszych czasach jest bardzo zaawansowana technologicznie. Jakość obróbki mechanicznej i chemicznej kół zębatych gwarantuje ich cichobieżną pracę, zaś nawęglanie i azotowanie zapewnia znaczne zwiększenie odporności na ścieranie. Jednakże po dłuższej eksploatacji zwłaszcza w warunkach szybkozmiennych obciążeń może spowodować nierównomierność zużycia kół i nierównomierność wyjściowej prędkości kątowej przekładni. Na skutek zmiennych sił oddziaływujących na ząb takiego koła notowane są niekiedy przypadki jego wyłamania. W lotnictwie śmigłowcowym newralgicznym problem są silne odziaływania wibracji łopat wirnika nośnego m.in. drgania własne, oddziaływanie sił aerodynamicznych, rezonans przyziemny w wyniku nakładania się prędkości postępowej (kadłub śmigłowca) na prędkość opływu powietrza profilu łopaty nośnej w ruchu obrotowym. Złożenie tych dwóch zjawisk jest istotnym czynnikiem szybkiego zużycia szeroko pojętego zespołu napędowego śmigłowca tj. silnik, układ transmisji, układ nośny i układ sterowania lotem. W Instytucie Technicznym Wojsk Lotniczych opracowano i wdrożono metody diagnostyczne FAM-C i FDM-A, służące do diagnozowania i oceny stanu technicznego naziemnych zespołów lotniskowego zasilania elektroenergetycznego statków powietrznych serii LUZES, w których monitorowano wielkości przekoszeń i przesunięć mimośrodowych wałów napędowych oraz parametry dynamiki ruchu obrotowego powodującej m.in. ukręcanie wałków napędowych prądnic. Główny nacisk położono na zagadnienia związane z badaniami lotniczych zespołów wirnikowych, a w szczególności ich łożysk tocznych i elementów przekładni zębatych. Jednym z groźnych zjawisk eksploatacyjnych występujących na śmigłowcach wojskowych są rezonanse podpór łożyskowych. Na podstawie wykonanych badań i analiz, przedstawiono przyczyny i skutki rezonansów lokalnych (izolowanych) w łożyskach tocznych oraz rezonansów złożonych (strukturalnych) pomiędzy podzespoła więcej »

Badanie zjawiska zniekształceń stref magnetycznie obojętnych w lotniczych komutatorowych prądnicach prądu stałego - DOI:10.15199/48.2019.11.21
Jerzy LEWITOWICZ Andrzej SZELMANOWSKI Andrzej GEBURA Andrzej PAZUR Edyta FRANCZUK Tomasz TOKARSKI 
W lotnictwie wojskowym obserwuje się dynamiczny rozwój w dziedzinie maszyn elektrycznych, który jest wynikiem pojawienia się nowoczesnych technologii i elektronicznych systemów zasilania. W wyniku tego, zamiast obecnie istniejących na pokładzie wojskowego statku powietrznego różnego typu systemów wytwarzania i rozdzielenia energii (prądu stałego i przemiennego), stosuje się jeden tzw. system elektroenergetyczny. Systemy elektroenergetyczne (prądu stałego i przemiennego) wykorzystują różnorodność napięć tj. 405 VAC zmiennej częstotliwości, 200 VAC stałej częstotliwości oraz 28 VDC i 270 VDC prądu stałego [1]. Ze względu na bezpieczeństwo wzrost niezawodności, obniżenie kosztów jego eksploatacji oraz ograniczenie emisji szkodliwych substancji wpływający bezpośrednio na organizm ludzki odchodzi się od zabudowy na pokład współczesnego statku powietrznego instalacji zasilania prądu stałego. Wychodząc naprzeciw tym trendom w lotnictwie wojskowym RP. (m.in. samolot myśliwsko-bombowy Su-22) nadal wykorzystuje się układy zasilania prądu stałego oparte na komutatorowych prądnicach prądu stałego [2, 3]. Zaletami tego układu są: współpraca z pokładową baterią akumulatorową, co ma duże znaczenie dla gotowości bojowej na lotniskach polowych z dala od infrastruktury naziemnej, współpraca podczas rozruchu tzn. prądnica jako maszyna odwracalna może być użyta jako rozrusznik, a także możliwość współpracy buforowej czyli pobieranie energii z baterii akumulatorowej podczas przeciążenia prądnicy, współpraca równoległa prądnic - nie trzeba synchronizować częstotliwości ani fazy. Zużycie mechaniczne w skrzynkach napędów prądnic pracujących równolegle nie zwiększa strat energetycznych. Do zalet układu zasilania prądu przemiennego należą: znaczna moc jednostkowa (z jedności masy), regulacja napięcia - prosty układ regulacji kontrolujący tylko amplitudę mierzonego sygnału, brak efektu pojemnościowego podczas pracy w warunkach ustalonego (stałego) więcej »

Bezpieczeństwo przebywania i prowadzenia upraw polowych pod napowietrznymi liniami elektroenergetycznymi - DOI:10.15199/48.2019.11.05
Marek JAWORSKI 
Analizując wyniki badań dotyczących wpływu pola elektromagnetycznego o częstotliwości 50/60 Hz (ELF) na środowisko, można spotkać się z wieloma poglądami na temat oddziaływania zarówno składowej elektrycznej, jak i magnetycznej tego pola na organizm człowieka. Pola magnetyczne o bardzo niskiej częstotliwości są określane jako potencjalnie rakotwórcze u ludzi, na podstawie związku epidemiologicznego z białaczką dziecięcą. Istnieje szereg publikacji potwierdzających średnio dwukrotnie większe ryzyko wystąpienia białaczki u dzieci narażonych na pola magnetyczne o wartościach średnich powyżej 0,4 μT [1, 2, 3, 4]. Są także badania, w których nie stwierdzono większego ryzyka białaczki u dzieci mieszkających w odległości do 600 m od napowietrznych linii elektroenergetycznych o napięciach od 132 do 400 kV [5] lub udowodniono, że ryzyko zachorowania na białaczkę u dzieci nie jest związane wyłącznie z samą ekspozycją na pole magnetyczne [6]. Z najnowszych badań wynika, że skumulowane ryzyko względne występowania białaczki u dzieci w wyniku ekspozycji na pole magnetyczne o częstotliwości 50 Hz spadło z poziomu 2,44 dla najbardziej rygorystycznej analizy z roku 1997 do poziomu 1,58 z analizy z roku 2017 [7]. Dowody na powiązania pól magnetycznych z nowotworami u dorosłych (guzy mózgu, czerniaki, rak piersi) są słabsze i niespójne [8,9]. Wyniki najnowszych badań epidemiologicznych, badań na zwierzętach (in vivo) oraz na strukturach komórkowych i tkankowych (in vitro), określających związek narażenia na pola ELF z chorobami nowotworowymi, zaburzeniami układu nerwowego i zaburzeniami nuerobehawioralnymi zawarto w części raportu SCENIHR [4] poświęconej oddziaływaniu na organizmy żywe pól elektromagnetycznych niskiej częstotliwości (ELF). Z przedstawionych w raporcie [4] badań na zwierzętach nie wynika, że pola magnetyczne niskiej częstotliwości mogą powodować nowotwory lub przyspieszać wzrost wszczepionych komórek nowotworowych. N więcej »

Chargers for electric cars with V2G (vehicle to grid) technology - connection principles for the distribution network - DOI:10.15199/48.2019.11.53
Joanna BARANIAK Jacek STARZYŃSKI 
In recent years, there has been an escalation in the development of the electromobility (e-mobility) market. This escalation directly results in the increased requirement of charging stations supplied from the public distribution network. According to various forecasts, it is estimated that by 2040, about 500 million electric vehicles will travel on the roads around the world [1, 2]. This will undoubtedly be one of the biggest challenges that distribution system operators, regional and country governments and all the road users have to face in the coming years. It should be expected that e-mobility will be an important factor for global economies and ecological trends. In fact, electric vehicles will act as a catalyst for the development and expansion of the smart grid infrastructure, being one of its elements at the same time (see Figure 1). The Polish Parliament Act on Electromobility and Alternative Fuels that came into effect on January 11, 2018 can be considered as the first step to popularize e-mobility in Poland. Apart from the incentives that will be granted to electric vehicle drivers, the Act defines the rules for the development and operation of charging point infrastructure. The Act gives a green light to the car sharing service as well as research on autonomous vehicles on public roads [3]. Fig. 1. Electric vehicle as an element of a smart grid [4]. Literature presents quite a few more or less futuristic visions that show the possibilities of using electric vehicles as dispersed energy sources [5, 6, 7, 8]. The vehicles would be used for among others things, shaping the 24-hour load curve, reactive power compensation, storing electric energy produced by RES (renewable energy sources) [6, 9]. All these assumptions, even if their implementation is still far in the future, are built on a common basis, namely the V2G (vehicle to grid) concept. Chargers for electric vehicles The simplest method to classify electr więcej »

Concept of a measuring system for diagnostics of photoconductive semiconductor switches parameters - DOI:10.15199/48.2019.11.31
Karol PIWOWARSKI Marek SUPRONIUK Paweł KAMIŃSKI Bogdan PERKA 
The photoconductive semiconductor switch (PCSS) is an electrical switch, optically controlled and operated by the phenomenon of photoconductivity. A PCSS is made of a semiconductor material with a thickness of 0.5 to 1 mm which is connected to the electrical circuit by ohmic contacts mounted on the surface. After illumination of the area between contacts, called switch gap, by the photon flux, the concentration of charge carriers increases, which reduces the resistance of the semiconductor material up to several orders of magnitude [1, 2]. An overview of the basic PSCC structures is presented in paper [3], and the solution used in the research is presented in Figure 1. Fig. 1. Structure of photoconductive semiconductor switch In recent years, there has been a growing interest in the possibility of using PCSS switches in pulse systems and in the power industry to control the transmission of electricity in a hybrid switch system [4]. The aim of pulse systems is to transport large amounts of electric energy in a very short period of time. Such systems are used both in applications for military use, such as microwave generators and electromagnetic weapons, as well as for civilian use, where they are used in automation of control of electronic systems [5, 6]. PCSS switches have many advantages over spark gap switches, traditionally used in pulse systems, and over high voltage mechanical switches used in power industry. They are characterized by high voltage durability, thanks to which, the operating voltage of switches in the open state can reach up to 100 kV. Due to the possibility of going into a state of reduced resistance, the current in the conduction state can reach 1 kA [7, 8]. During operation with the described parameters, they enable delivering power of tens of megawatts over a period of nanoseconds, with possible repetition rate of 1 kHz. An important problem of traditional spark gap switches is the inability to preci więcej »

D-dot, B-dot Data Processing of Fields Generated with Broadband Pulsed Antenna - DOI:10.15199/48.2019.11.29
Yahia ACHOUR Jacek STARZYŃSKI Adam JÓŚKO Marek SUPRONIUK 
During our attempt to build a jamming system based on electromagnetic pulse (EMP) system [1], we had to measure the radiated electrical and the magnetic fields using fast D-dot and B-dot probes [2]. These measurements were necessary to confirm that the jammer is really radiating and also to get more information about the frequency range and the power density of the generated waves. After recording data, we faced two major problems. The first one is that the two curves do not start at the same time. This difference is caused by the delay in the optical links which are not the same for both sensors and additionally by the propagation time in the conditioning circuit. The second problem was to find the ratio between the two signals, because the irregular form of the signals made it difficult to describe them in a parametrized form. The first problem was solved with calculating and maximizing the correlation between the two. The second issue was approached as a single variable optimization problem, in which we tried to minimize the distance between the electrical field data and the magnetic field data. If there is a propagation, this optimization variable would fit to the intrinsic impedance of the air for the far field mode. Recording data at different distances from the antenna allowed us to analyze the attenuation of the near field static component and the building up of the far field. Description of the EMP generator and the measurement setup The experimental setup consists of two main parts: a high voltage pulse generator connected directly to a broadband antenna, which contains the Electromagnetic pulse (EMP) generator, or in other words, the jammer. In the second part, the radiated field is sensed and recorded via free field D-dot and a B-dot probes located nearby the antenna. The probes are connected to fast oscilloscope with a 40 GS per second using an optical link. The oscilloscope is located inside a shielded cont więcej »

Design of a Passive 48-Pulse AC-DC Converter for THD Stabilization at Light Load - DOI:10.15199/48.2019.11.46
Shoaib AKTHER Shahidul ISLAM Abdul MALEK 
AC-DC converters are basically known as rectifiers. With the increasing electricity demand of the present world harmonics is caused mainly due to the inclusion of nonlinear loads in modern power systems. So, harmonics are generated by almost all types of converters resulting remarkable problems on AC mains, loads and distribution systems [1]-[3]. This harmonics problem becomes more severe at light load i.e. 20% of the full load [4]. Therefore the suppression of the harmonics to control the total harmonic distortion (THD) in allowable ranges referred to known standards is designated as a very important matter in modern power system [5]. For reducing the harmonics of the input AC line current, different types of filters such as active filters and passive filters have been proposed in different rectifier schemes [6]- [7]. But there are some problems occured while working with passive filter such as introduction of series or parallel resonance, unpredictable filter current, reactive power generation and bulkiness of the device alongside active filters have strict limitation on switching frequency of the electronic devices [8-9]. Voltage source converter (VSC) based multipulse rectifiers are also being used for harmonics mitigation and applicable to HVDC systems but these types of schemes also suffer with very high switching frequency of the electronic devices [10]. Increasing the pulse number of a rectifier by pulse doubling or pulse tripling techniques are also popular choices for mitigating harmonics [11-12]. Controlled as well as uncontrolled multipulse rectifier (MPR) schemes can also be used for reducing harmonics but controlled rectifier schemes come with many undesirable facts like reactive power generation, current ripple, need of power filters, extra circuitry requirement for generating gate pulse etc. [13-14]. So, it is flexible as well as a cost effective approach to use passive or uncontrolled rectifiers for harmon więcej »

Diagnostyka wybranych parametrów energii elektrycznej produkowanej w elektrowniach wiatrowych - DOI:10.15199/48.2019.11.28
Marek SUPRONIUK Zbigniew SKIBKO Andrzej STACHNO 
Eksploatacja elektrowni wiatrowych wiąże się z nieustannymi zmianami stanu jej pracy, wynikającymi zarówno z samej budowy elektrowni (kształt i długość łopat, przekładnia, typ generatora, przekształtniki napięcia), jak również ze zmienności kierunku i siły wiatru, a także gęstości przemieszczającego się powietrza. Wynikiem tych zmian jest oddziaływanie dynamiczne elektrowni wiatrowych na parametry energii elektrycznej panujące w punkcie ich przyłączenia. Zmienność prędkości wiatru, a także gęstości powietrza, wpływa przede wszystkim na zmianę wartości wytwarzanej w niej mocy czynnej, a co za tym idzie na wartość napięcia panującego w sieci. Budowa elektrowni (w szczególności zainstalowane w niej układy energoelektroniczne) wpływa przede wszystkim na kształt przebiegu generowanego przez źródło prądu (wartość poszczególnych harmonicznych prądu), a w konsekwencji na odkształcenia przebiegu napięcia. Dlatego bardzo istotnym staje się możliwość diagnostyki instalacji elektrycznych elektrowni wiatrowych. Wymagania polskich przepisów w zakresie dynamicznego oddziaływania elektrowni wiatrowych Wśród parametrów opisujących jakość energii elektrycznej wytwarzanej w odnawialnych źródłach energii są również wytyczne dotyczące dynamicznych zmian napięcia w punkcie przyłączenia elektrowni wiatrowych do sieci dystrybucyjnej. Ich spełnienie wymagane jest do otrzymania zgody na przyłączenie elektrowni wiatrowej do sieci elektroenergetycznej oraz podpisanie bezterminowej umowy na dostawę energii elektrycznej. Jednakże, ze względu na starzenie się urządzeń wytwórczych, zdaniem autorów, parametry te powinny być monitorowane na bieżąco, aby zapobiec ewentualnym szkodom wynikającym z dostarczenia do odbiorców energii elektrycznej o nieprawidłowych parametrach technicznych. Wymagania stawiane elektrowniom wiatrowym czasowo przyłączonym do sieci średniego napięcia opisane zostały w Instrukcji Ruchu i Eksploatacji Sieci Dystrybucyjnych PGE S.A. więcej »

Dopplerowska anemometria laserowa jako metoda pomiaru przepływu za łukiem 90⁰ - DOI:10.15199/48.2019.11.24
Piotr SYNOWIEC Wiesław WĘDRYCHOWICZ Piotr PIECHOTA Artur ANDRUSZKIEWICZ 
W badaniach bilansowych gospodarki wodnej wszelkiego rodzaju obiektów energetyki komunalnej lub zawodowej wykorzystuje się przepływomierze oparte na różnych zasadach działania. Każdy przepływomierz umieszczony w instalacji hydraulicznej wymaga zastosowania odpowiednich odcinków prostych za elementem zaburzającym. Jest to związane z koniecznością ustabilizowania profilu prędkości za zaburzeniem. Takie zabiegi są wymogiem producenta, który tylko i wyłącznie przy zachowaniu warunków montażowych deklarują, że wyniki pomiarowe będą znajdować się w przedziale błędu granicznego. Dopplerowska anemometria laserowa Dopplerowska anemometria laserowa (LDA) jest jedną z kilku optycznych bezkontaktowych metod pomiaru prędkości w konkretnym punkcie, w którym przecinają się dwie stałe wiązki lasera tworząc tzw. objętość pomiarową. Metoda ta opiera się na efekcie Dopplera, która polega na przesunięciu częstotliwości promieniowania świetlnego. Anemometria laserowa w szerszej formie została opisana w literaturze dotyczącej laserowego pomiaru prędkości [1] [2] [3]. Wzmiankowane promieniowanie świetlne rozpraszane jest przez cząstki zawieszone w medium mierzonym. W przypadku pomiarów wykonywanych na stanowisku do pomiarów zaburzeń przepływów jako posiewu użyto mielonego srebra organicznego, które ma dobre właściwości rozpraszania światła lasera, co pozwoliło z dużą dokładnością wykonać pomiar. Anemometria laserowa cechuje się wieloma zaletami, najważniejszą z nich jest fakt że pomiar nie ingeruje w przepływ, przez co nie zmieniamy struktury przepływu. Kolejnymi ważnymi aspektami przemawiającymi za zaletami tej metody jest brak zależności pomiaru prędkości w punkcie od zmian ciśnienia, temperatury, a co za tym idzie gęstości pły więcej »

External lighting and the issues of mesopic vision - DOI:10.15199/48.2019.11.60
Joanna MAZIARKA Ľubomír BEŇA 
The Nobel Prize awarded in 2017 in the field of Physiology or medicine, revived questions about the impact on health and well-being of the human population, defined not only as of the intensity of illumination. One of the problems that have been raised is the correctness of the use of the same guidelines in photopic conditions as scotopic or mesopic. The limit of mesopic vision is determined for the luminance value 3 cd/m2. It is worth paying attention to the values specified in PN-EN 13201-2: 2016 for M classes, they are below this value. To determine the level of influence of changes in lighting conditions on the perception of the luminance value, you can use a factor S/P, defined later in this article. Photoreceptor cells Light-sensitive cells (specialised retinal neurons) divided into rods and cones. As a result perception of the electromagnetic wave in the visible range, i.e. 390 nm to 790 nm, photochemical cells produce two types of photosensitive pigment. Rhodopsin is produced in suppositories, while iodopsin in rods. The intensity of the secretion of individual pigments is closely related to the luminance reaching the retina of the eye. Based on the activity of individual photoreceptors, the following types of vision are discriminate: scotopic - focused on contrast, mesopic - transitional and photopic - designed for colour recognition. At the same time, as the intensity of light decreases, the ability to distinguish colours decreases. The more rods they take in recognising light stimuli, the more they darken the colour red, and the blue ones acquire brightness [1, 2]. The vision expressed in the equations Mathematically determine the amount of energy reaching the retina, values shall be calculated using standard quantities like luminous flux ϕe, luminous spectral efficiency function V(λ) and maximum of luminous efficacy of radiation Km: (1) 780 , 380   Km  e  więcej »

Fast harmonics identification based on a compressive sensing approach - DOI:10.15199/48.2019.11.18
Beata PAŁCZYŃSKA 
Various new techniques for the identification and evaluation of harmonic sources in electricity supply systems are presented in the literature [1, 2, 3, 4]. In many practical applications, acquiring signals at ever higher sampling rates causes that large amounts of data must be stored in physical memory, which in turn leads to a huge memory occupancy. Thus, storing and processing or analysing the resulting large number of data has made it necessary to compress the desired information using the appropriate algorithms. Differently, from the typical approach usually implemented for signal compression, a new technique called compressive sensing (CS) uses a limited number of random linear projections to acquire efficient representations of compressible signals directly [5, 6, 7]. In general, the CS theory consists of three main issues. The first is determining the sparsest representation of a signal. Next, it is important to find an applicable compression transformation matrix, which approximates well the original N length signal for the least M coefficients. The last one concerns implementing proper reconstruction algorithm, which can recover original signal from observed M coefficients. This paper presents the application of a fast reconstruction algorithm based on a convex optimization with the use of K-rank-order filter in the signal's sparse domain to accelerate the solution convergence. This filter has low computational complexity and is easy to implement. In this way, the computational burden associated with digital signal processing, which is performed in the next step of the measuring path, is reduced. The paper is organized as follows. In the first section, the principles of the CS theory are given. Then, a sparse representation of a narrowband signal in the Fourier basis is proposed. The next section describes the random acquisition process. The algorithmic implementation of the reconstruction procedure is explaine więcej »

Heating MV Cables to the Exact Temperature for Combined Test - DOI:10.15199/48.2019.11.48
Michal KRBAL Ludek PELIKAN Zuzana BUKVISOVA Iraida KOLCUNOVA 
Diagnosis and withstand test of high voltage (HV) and medium voltage (MV) cables are an integral part of basic routine tests, development tests and type tests in high voltage testing laboratories. Overall, the cable tests can be divided into two categories. The first category is focused on mechanical tests, such as bending tests, climate chamber cycling tests, or mechanical and chemical resistance tests of cable top protect layers. The second category is electrical testing. PE, HDPE, XLPE and EPR insulation cables are tested and diagnosed in accordance with standards IEC 60840, IEC 60502-2, IEC 60885-3, IEC 62067 and IEC 60230. However, procedures for testing the quality of insulation are based on testing methods developed at TU Graz according to DIN VDE 0276-620 [1]. The set of applied tests consists of withstand combined tests, diagnostics (partial discharge - PD, dissipation factor - tan delta) [2], and finally cable breakdown voltage test to determine the residual electrical strength of dielectric [2-5]. Withstand voltage tests (Impulse voltage tests) are carried out as combined tests. This means that the cable is applied withstand AC or impulse voltage and at the same time cable conductor (core) is heated to the maximum temperature under normal operating conditions increased by 5 to 10 °C. This test temperature is determined by the maximum warming of the cable core at nominal and by sharing the heat with the surroundings. Also heating the cable core with a short circuit current is a very fast phenomenon. The cable core maximum permissible temperature is higher (PE 130 °C, HDPE 160 °C, XLPE and EPR 250 °C) for 5 seconds. In practice, there is no heat sharing with insulation or the surroundings in the first few seconds. Most modern HV and MV distribution network cables have working insulation made of XLPE material (cross-linked polyethylene). The maximum temperature of this insulation is 90 °C (HD 70 °C, HDPE 80 °C and więcej »

Identyfikacja profilu osobowego na podstawie analizy neuronowej parametrów środowiskowych w inteligentnym budynku - DOI:10.15199/48.2019.11.35
Andrzej STACHNO Marek SUPRONIUK Zbigniew SKIBKO 
W inteligentnym budynku archiwizowanych jest bardzo wiele parametrów. Np. są to pomiary temperatury, wilgotności, jasności prędkości wiatru, energii, stężenia różnych gazów itp. Na część z tych parametrów możliwy jest wpływ za pomocą istniejącej infrastruktury budynku, np. zmieniając temperaturę i wilgotność pomieszczeń, jednak inne można tylko mierzyć i analizować. Parametry te są niezależne od oddziaływania urządzeń technicznych i niosą wiele ciekawych informacji o budynku i przebywających w nim ludziach. Odpowiednie wyodrębnienie i analiza informacji pomiarowych [1], pochodzących z czujników stosowanych w automatyce budynkowej umożliwia opracowanie wzorców osobowych, a na tej podstawie, identyfikację osób przebywających w pomieszczeniach. Ponieważ w rzeczywistych obiektach, dane pomiarowe pochodzą od wielu użytkowników pomieszczeń, którzy przebywają w nich sporadycznie lub też stale, mechanizm analizy informacji pomiarowych musi posiadać możliwości autoadaptacyjne. Takimi cechami charakteryzują się algorytmy wykorzystujące sztuczne sieci neuronowe. Poddanie wyników pomiarów analizie neuronowej, pozwala na bieżącą adaptację całego systemu do aktualnych warunków, jakie mają miejsce w budynku [2]. Charakterystyka aparatury pomiarowej Układ pomiarowy zbudowany został w oparciu o rozproszony automatyki budynkowej - KNX. Rys.1. Topologia systemu KNX System ten, umożliwia integrację ze sobą ponad pięćdziesięciu sześciu tysięcy urządzeń sensorycznych i wykonawczych, realizujących zadania automatyki budynkowej. Topologia systemu z linii połączonych w obszary (rys. 1). Dzięki takiej architekturze, możliwe jest połączenie okablowaniem komunikacyjnym urządzeń, nawet w bardzo r więcej »

Impedance-Differential Protective Algorithm for Double-Circuit Transmission Lines - DOI:10.15199/48.2019.11.55
Justyna HERLENDER Krzysztof SOLAK Jan IŻYKOWSKI 
Double-circuit transmission lines have been extensively utilized in modern power systems due to their economic and environmental advantages over single-circuit lines. The different possible configurations of double-circuit lines, the possibility of occurrence of faults involving two circuits combined with the effect of mutual coupling, makes their fault analysis much more difficult than for single-circuit lines [1]. Moreover, double-circuit power lines are most prone to faults and disturbances that are difficult to predict, forces the necessity of providing these lines with protection devices that would operate in a reliable and fast way. Since now, many various protection schemes for double-circuit line have been proposed. The longitudinal current differential protection method is commonly used for parallel lines installed on the same tower [2]. However, such protection relay is influenced by the distributed capacitance and relies on communication channel [3]. The distance protection dedicated for parallel line presented in [4, 5] faces some problems, mostly due to mutual coupling between the circuits. It causes the relay become over reached or under reached depending on the network characteristics, operating status and fault location [5]. To improve the relay performance an application of adaptive protection principles is proposed in [6-9]. Other available protection solutions for double-circuit line concern current transverse differential protection including directional transverse differential protection [10-14]. Their operation is not based on communication channel but exit a long successive operating zone. Moreover, in case of parallel lines, travelling wave based protection scheme was also investigated as it is described in [15]. This paper deals with impedance-differential protective algorithm providing effective protection of transmission lines [16]. The traditional current differential relays [17] apply measureme więcej »

Implementacja nieliniowego obserwatora neuronowego dla napędu elektrycznego o złożonej części mechanicznej - DOI:10.15199/48.2019.11.50
Marcin KAMIŃSKI 
Odniesienie rozważań teoretycznych, w zakresie automatyki napędu elektrycznego (propozycje regulatorów lub metod obliczania zmiennych stanu), do implementacji przemysłowych jest często problematyczne lub utrudnione ze względu na nieliniowy charakter obiektów. Modele liniowe posiadają istotne ograniczenia, wynikające z jedynie liniowej kombinacji sygnałów wejściowych, w reprezentacji pewnej grupy zjawisk. W takich przypadkach należy wprowadzać algorytmy nieliniowe, jednak pojawiają się problemy ze złożoną analizą takich układów regulacji napędów elektrycznych. Poza tym, występuje konieczność wykonania dodatkowych zadań dotyczących identyfikacji członów nieliniowych [1]-[3]. Ponadto, należy pamiętać o możliwych zmianach zjawisk nieliniowych w trakcie eksploatacji napędu. W związku z tym, korzystne wydaje się wprowadzanie dodatkowych elementów modyfikujących przetwarzanie danych w obserwatorach zmiennych stanu wykorzystujących równania obiektu. W takich zadaniach, biorąc pod uwagę powyższe założenia, interesującym rozwiązaniem jest aplikacja modeli neuronowych, szczególnie zakładająca adaptację wag sieci realizowaną w trakcie działania całej struktury (on-line). W wyniku obliczeń algorytmu optymalizacyjnego, najczęściej opartego o wyznaczanie gradientu funkcji celu względem dostrajanych parametrów, korygowane są współczynniki sieci, w efekcie czego generowane są wartości wyjściowe stanowiące uzupełnienie dla standardowych obliczeń obserwatora [4]. Sieć neuronowa, w początkowej fazie działania całego układu, dostosowuje się do kompensowania wpływu nieliniowości napędu. Warto podkreślić, że część adaptacyjna realizuje założenia bez dodatkowych obliczeń wstępnych (na postawie losowych współczynników początkowych). Analogiczne rozwiązania spotykane są również w odniesieniu do kompensacji pracy regulatorów układów napędowych [5], [6]. Poniżej przedstawiono przegląd rozwiązań dotyczących obserwatorów nieliniowych, jednak uprzedni więcej »

Integer order vs fractional order temperature models in the forced air heating system - DOI:10.15199/48.2019.11.09
Krzysztof OPRZĘDKIEWICZ Maciej PODSIADŁO Klaudia DZIEDZIC 
The use of electric heating in building automation and air conditioning systems has many advantages. Electric heaters are easy to control and they allow to fast obtain preset temperature. The electric heating has been discussed by many Authors, e.g. the dynamics of electric floor heating systems is analyzed in the paper [6], the energy-efficient electric heating is discussed in [8]. The construction of control algorithm requires to know the model of a process. The heat processes inside buildings can be described by different models. For example the paper [7] analyzed transfer function models of electrically heated room, the paper [4] proposes transfer function, non integer order models of room heating with the use of radiator. The fractional calculus is a very useful tool to describe many physical phenomena. Fractional Order (FO) or equivalently noninteger order models for different physical phenomena are presented by many Authors, e.g. [1], [3], [5], [13],[18], [19]. It is also well known that heat processes can be described using FO approach. This issue has been investigated e.g. by [12], [13], [15], [14]. The models can have a form of a FO transfer function, a FO partial differential equation or a FO state equation. This paper is intented to compare integer order (IO) vs FO transfer function models of the forced electric heating system. The considered system works in a pharmaceutical factory. It is required to keep predefined, constant, relatively high temperature in insulated room with cubature about 75m3. The paper is organized as follows: at the beginning, some elementary ideas from FO calculus are presented. Next, the considered heating system is described and the FO transfer function models with suitable approximations are proposed. Finally the models are verified with the use of experimental data obtained from SCADA system. Preliminaries 0.1 Basic ideas from fractional calculus A presentation of elementary ideas więcej »

Inteligentne pomiary szybkozmiennego prądu akumulatora trakcyjnego pojazdu elektrycznego wykorzystujące interwałowe zbiory rozmyte typu-2 o wnioskowaniu Takagi-Sugeno-Kanga - DOI:10.15199/48.2019.11.12
Bartosz DOMINIKOWSKI 
Pojazdy elektryczne EV (ang. Electric Vehicles) w jednostkach napędowych często wykorzystują elektryczne trójfazowe silniki synchroniczne z magnesami trwałymi PMSM (ang. Permanent Magnet Synchronous Moto) lub silniki z magnesami zagłębionymi w wirniku (ang. Interior Permanent Magnet Synchronous Motor, IPMSM) [1, 2]. Schemat konfiguracji układu napędowego osobowego samochodu elektrycznego przedstawiono na rysunku 1. Głównym źródłem zasilania silników elektrycznych w ww. pojeździe jest akumulator trakcyjny oznaczony symbolem TBP (ang. Traction Battery Pack). Do jego zacisków wyjściowych za pośrednictwem dwukierunkowej przetwornicy DC/DC (P - rysunek 1) podłączony jest kaskadowo obwód przekształtnikowy DC/AC (F - rysunek 1) sterujący pracą elektrycznego silnika napędowego oznaczonego symbolem - M. Rys. 1. Schemat konfiguracji układu napędowego osobowego pojazdu elektrycznego - EV, gdzie: CT (ang. Current Transducer) - przetwornik prądu, moduł ładowarki składający się z: przetwornicy AC/DC oraz układu korekcji współczynnika mocy elektrycznej - PFC (ang. Power Factor Correction) [3] Głównym zadaniem energoelektronicznego falownika napięciowego DC/AC w układzie napędowym osobowego pojazdu elektrycznego jest przekształcenie napięcia stałego (VDC) na trójfazowe zmienne (VAC) oraz sterownie prędkością obrotową (ω) silnika elektrycznego (M). System zarządza energią w pojeździe elektrycznym, ze względu na różne chwilowe jego zapotrzebowanie na energię kinetyczną wynikające z rozruchu, hamowania rekuperacyjnego (z odzyskiem), jazdą ze stałą prędkością, monitoruje ją oraz steruje jej rozpływem do poszczególnych źródeł (baterie akumulatorów -TBP, superkondensator- C (rysunek 1)). Podczas hamowania w samochodzie istnieje konieczność odebrania dużej ilości energii elektrycznej w krótkim czasie. Zostaje ona przesłana do superkondensatorów, które mogą ją przyjąć, zabezpieczając baterie akumulatora trakcyjnego od przeciążenia prądem. więcej »

Jednofazowy energetyczny filtr aktywny z zasobnikiem energii do kompensacji wahań mocy czynnej w linii zasilającej - badania HIL z wykorzystaniem symulatora czasu rzeczywistego RTS - DOI:10.15199/48.2019.11.49
Kacper SOWA Marcin BASZYŃSKI Stanisław PIRÓG 
Głównym zadaniem współczesnej energoelektroniki jest poprawa jakości energii elektrycznej. Do działań tych należy również zaliczyć ograniczenie mocy aparatury dystrybucyjnej. Zadanie to może być realizowane przez kompensatory mocy biernej oraz energetyczne filtry aktywne [3], kompensujące składową nieaktywną prądu wg definicji S. Fryzego [4], [5], lub chwilowej mocy biernej wg H. Akagi [6], [7]. Wykorzystanie filtracji aktywnej (w porównaniu z filtracją pasywną LC) eliminuje zjawiska związane z możliwością wystąpienia rezonansu, jak również problemy wynikające z konieczności dostrajania do częstotliwości filtrowanych harmonicznych [8]. Należy zauważyć, iż dla odbiorników o pracy nieciągłej, w których czas pracy urządzenia w odniesieniu do czasu spoczynkowego jest relatywnie krótki [9], instalacja zasilająca musi być zaprojektowana dla obciążeń szczytowych, a moc zwarciowa w punkcie przyłączenia musi być odpowiednio duża. Zastosowanie filtru aktywnego połączonego z dodatkowym zasobnikiem energii, magazynującym energię przy braku obciążenia, oraz wspomagającym linię zasilającą podczas pracy obciążenia umożliwia radykalne zmniejszenie szczytowej wartości mocy, a tym samym wymagań stawianych instalacji zasilającej. Działania układu zilustrowano na rys. 1. Układ dołączony do linii zasilającej, jest złożony z filtru aktywnego, zasobnika energii oraz niespokojnego obciążenia, załączanego w nieregularnych odstępach czasowych. Na rysunku zaznaczono również charakter prądu linii zasilającej (Ilinii) oraz prąd odbiornika (Iobc). Połączenia między elementami symbolizują drogi przepływu energii, realizowane przez odpowiednie funkcje układu, a naniesione strzałki oznaczają możliwe kierunki oraz sposób jej przepływu. Pogrubione połączenie z obciążeniem symbolizuje wymagania stawiane aparaturze dystrybucyjnej, w celu sprostania tak znacznym przepływom generowanym przez obciążenie [1]. Zadaniem układu jest utrzymanie poboru energii prz więcej »

Koncepcja obiektywizacji testu zegara na potrzeby diagnostyki chorób neurodegeneracyjnych - DOI:10.15199/48.2019.11.38
Kamila JADCZAK Jacek JAKUBOWSKI Kazimierz TOMCZYKIEWICZ 
Choroby neurodegeneracyjne to grupa chorób o charakterze przewlekłym i postępującym których w większości przypadków podstawowym objawem jest zespół otępienny, tzw. demencja. Określa się ją jako upośledzenie możliwości myślenia wpływające na codzienne funkcjonowanie. Upośledzenie dotyka funkcji poznawczych, w tym pamięci, języka, umiejętności wzrokowoprzestrzennych, funkcji wykonawczych oraz osobowości. Otępienia neurodegeneracyjne klasyfikowane są na różne sposoby. Można podzielić je na odwracalne i nieodwracalne. Do grupy otępień odwracalnych zalicza się schorzenia przebiegające w niedoczynności tarczycy lub niedoborze witaminy B12. Do najczęściej występujących schorzeń z grupy otępień nieodwracalnych (przynajmniej na obecnym etapie rozwoju medycyny) należą choroba Alzheimera (AD) oraz otępienie czołowo-skroniowe (FTD). Rozróżnienie pomiędzy nimi, zwłaszcza w wieku przedsenioralnym, bywa trudne [1]. We współczesnej diagnostyce stanów otępienia dostrzec można z jednej strony specjalistyczne metody neuroobrazowania struktury i funkcji mózgu i z drugiej dążenie do stosowania prostych testów przesiewowych, możliwych do wykorzystania przez lekarza pierwszego kontaktu. Wyniki tych ostatnich mogą być jednak wypaczone subiektywną interpretacją, często wynikającą z braku odpowiedniego doświadczenia w wizualnej ocenie np. zachowania zdolności wzrokowo-przestrzennej pacjenta, będącej jednym z kryteriów diagnozy Lund- Manchester, używanej do różnicowania otępienia czołowoskroniowego i choroby Alzheimera [2]. Jednocześnie stwierdza się, że żadna ze współczesnych technik neuroobrazowych nie jest w stanie dostatecznie dobrze uwidocznić mikro zmian w obrębie płatów mózgu, które wpływają na wyższe funkcje umysłowe człowieka [3]. Ponadto wykonanie tego typu badań jak również badań histologicznych i genetycznych wymaga kontaktu ze specjalistami różnych dziedzin oraz specjalistycznego sprzętu, a co za tym idzie - wymaga czasu. Ze względu więcej »

Method for Link Stability Evaluation of Industrial Wireless Sensor Networks (ISA 100.11a) - DOI:10.15199/48.2019.11.45
Heitor FLORENCIO Adrião DÓRIA NETO 
The application of new technologies in the industrial environment provides an increase in the quality and productivity of industries and services. Recently, the application of wireless sensor networks in the monitoring of variables in an industrial environment is greatly intensifying. The flexibility and allocation of measurement points in locations inaccessible to the operator are the main arguments for integration of wired and wireless instrumentation. Wireless instrumentation has not emerged to replace the wired technologies, but the control system integrates wired with wireless instrumentation to include hard-to-reach points. The scalability of IWSNs facilitates the design and upgrade steps of industrial factory. However, the low installation cost is the most relevant factor to the popularity of wireless instrumentation. Compared to the cabling and maintenance costs of wired networks, the wireless networking technologies offer a very small cost in fraction of a euro for per meter of wireless connectivity [1]. It is mandatory to evaluate the system dependability in monitoring and control domains in order to assess its successful operational behavior through time, although there are relevant challenges to be handled for such assessment. Actually, dependability is a generic concept including attributes as availability, reliability, safety, integrity and maintainability [2]. The probability of an item not failing at a given time interval is the definition of the reliability. However, in the context of industrial networks based on wireless communication protocols, the main difference between the reliability analysis of wired and wireless networks is related to the instability of the means of communication, which is more susceptible to noise [3]. With such contribution, it is noticeable that the stability of a link of communication of wireless networks is an essential factor in the evaluation of the operation of industrial sy więcej »

Methods of picture segmentation in recognition digital satellite images - DOI:10.15199/48.2019.11.30
Jan MATUSZEWSKI Marcin ZAJĄC 
In recent years, the possibilities of image processing have developed to a large extent. Thanks to the new algorithms, we can get better and better results from the same satellite imagery [1, 2]. The information obtained from different sources is widely used in various areas of the economy, such as geodesy and cartography, forestry, electronic warfare systems water management [3-7]. They also make a significant contribution to rescue and the fight against the effects of natural disasters. Various algorithms for processing and recognizing digital images can be found in the literature [8-10]. The first step is segmentation of the image, i.e. its division into disjoint areas that meet certain criteria of homogeneity. This approach allows us to skip individual pixel analysis and focus on the larger areas. These areas are internally uniform, which means that there are no clear boundaries between them, they have similar texture, color, brightness. There are many methods for segmenting digital images, such as thresholding, splitting and combining, area expansion and edge detection. Each of them has the task of extracting objects from the background, but using different image processing algorithms results in completely different results. To do this, select the appropriate segmentation method for the display in order to obtain the desired final result of the object recognition. Image segmentation by thresholding It consists in determining the threshold T, which defines the value on the brightness scale of the image, on the basis of which an analysis of individual pixels of the image is carried out [11]. Pixels that meet the condition: f (x, y) ≥ T are an object and pixels that do not meet it are the background. The result of the threshold operation can be represented by the following function (1) 􀝃􁈺􀝔, 􀝕􁈻 􀵌 􀵜 1 􀝀􀝈􀜽 􀝂 􁈺&# więcej »

Modele rozkładu prędkości gazu w przepływie przez przewód o przekroju kołowym - DOI:10.15199/48.2019.11.19
Wiesław WĘDRYCHOWICZ Piotr SYNOWIEC Piotr PIECHOTA Artur ANDRUSZKIEWICZ 
Pomiary wielkości fizycznych są w przemyśle podstawowym źródłem informacji o przebiegu procesu, jego stanu jak i jakości. Coraz wyższy poziom zaawansowania technologicznego procesów wymaga coraz bardziej dokładnych i niezawodnych urządzeń pomiarowych. Od wskazań przyrządów zależy sterowanie całym procesem technologicznym a dokładność wskazań gwarantuje powtarzalność procesu, co znacząco wpływa na jakość uzyskanego produktu. Jednocześnie dąży się do tego by urządzenia były uniwersalne i nie ingerowały w proces technologiczny. Jednym z trudniejszych zagadnień jest pomiar strumienia objętości, który jest zaliczany do najtrudniejszych w metrologii przemysłowej. Przepływomierze spełniające przedstawione wymagania zwykle są przepływomierzami próbkującymi, które obliczają strumień objętości na podstawie wartości prędkości zmierzonej w pewnej ograniczonej przestrzeni płynnej nie będącej przestrzenią całego przewodu. Stosowanie tego typu przepływomierzy jest uzasadnione: mniejszym kosztem zakupu, niewielką integracją w strugę płynu, możliwością pomiaru w wielu punktach poprzez zmianę położenia czujnika [1]. Do poprawnego obliczenia strumienia objętości, na podstawie próbkowania konieczna jest znajomość profilu prędkości. Na tej podstawie możliwe jest wyznaczenie współczynnika wzorcowania przepływomierza. Znając współczynnik wzorcowania, pole powierzchni przekroju przepływowego przewodu oraz wartość zmierzonej prędkości w przekrojach próbkowania, możemy wyznaczyć strumień objętości. Wiele przepływomierzy realizuje próbkowanie w kilku różnych miejscach, przy czym próbkowanie niekoniecznie musi mieć miejsce w osi przewodu. Ponieważ próbkowanie dla różnych promieni będzie miało różne drogi, w związku z tym stała kalibracji będzie miała różne wartości wzdłuż promienia przewodu. Dlatego też znajomość rozkładu prędkości w przewodzie jest szczególnie ważna. Istnieje wiele matematycznych modeli rozkładu prędkości, różniących się postacią więcej »

Ocena przydatności wybranych cech sygnału mowy wyróżniających osoby ze zmianami neurodegradacyjnymi - DOI:10.15199/48.2019.11.25
Ewelina MAJDA-ZDANCEWICZ Andrzej P. DOBROWOLSKI 
Choroby neurodegeneracyjne związane są z postępującymi uszkodzeniami komórek tworzących struktury układu nerwowego. Schorzenia te są groźne głównie z tego względu, że dojrzałe komórki układu nerwowego (z bardzo nielicznymi wyjątkami) nie wykazują tendencji do regeneracji. Uwaga badaczy koncertuje się więc na chorobach neurodegeneracyjnych z uwagi na fakt, że medycyna wciąż nie dysponuje zadowalającymi metodami ich leczenia. Choroby neurodegradacyjne cechują się postępującym przebiegiem, prowadzącym z czasem do znacznych ograniczeń w życiu codziennym chorych. Poszukiwane są zatem nowe metody ukierunkowane na wczesne wykrycie i precyzyjną diagnostykę tych zaburzeń. Szansą i dobrym wskaźnikiem wczesnej diagnostyki stanów otępiennych mogą być zmiany w głosie osób chorych [1-7]. Typowymi reprezentantami chorób neurodegradacyjnych są choroba Alzheimera oraz choroba Parkinsona, ale do grupy tych schorzeń zalicza się również: otępienie z ciałami Lewy’ego, schorzenia prionowe (inaczej encefalopatie gąbczaste, np. choroba Creutzfeldta- Jakoba czy śmiertelna bezsenność rodzinna), otępienie czołowo-skroniowe, stwardnienie zanikowe boczne i wiele innych [8]. Zaburzenia mowy w chorobach Parkinsona W ramach prezentowanych w artykule badań autorzy skupili się na chorobie Parkinsona. Jest to heterogenny, przewlekły zespół hipokinetyczny o nieznanej etiologii, występujący u 3 % osób powyżej 65 roku życia, dwa razy częściej u mężczyzn niż u kobiet. W Polsce zarejestrowano ponad 70 tysięcy chorych, a rocznie na chorobę Parkinsona zapada około 8 tysięcy osób [9]. Główną przyczyną patologii jest śmierć dużej liczby neuronów dopaminergicznych w istocie czarnej znajdującej się w śródmózgowiu. Objawy kliniczne występują z reguły, gdy ulegnie uszkodzeniu ok. 80 % komórek odpowiedzialnych za wytwarzanie dopaminy. Przyczyny choroby Parkinsona są dotychczas nieznane poza przypadkami uwarunkowanymi genetycznie. Uważa się, że są one następstwe więcej »

Optimal control of an industrial electrostatic rotating electrode separator using artificial intelligence technics - DOI:10.15199/48.2019.11.44
Omar DAHOU Seddik TOUHAMI Zouaoui AYACHE 
The electrostatic technologies with high intensity of electric fields for the recovery of used materials from industrial waste, have in recent years undergone considerable progress [1][2]. However, the necessary adjustment of the parameters of any industrial process to produce the desirable result is a delicate operation. Electrostatic technologies therefore require the implementation of prevention and control strategies for the search of an optimal state in order to improve the quantity and quality of recovered products. [3-6]. Moreover, any experimental and even more industrial process proves to be subject to variations whose origins are multiple : ambient and experimental conditions, natures, compositions, granulometries of waste, resolutions of the parameters of the process, ..., … . These lead to a variability that can be considered as an optimization problem whose resolution is a central topic in operational research. The main objective of this study is the optimization of the operation of an industrial electrostatic separator, with rotating electrode, designed and realized at the IRECOM laboratory of Sidi Bel Abbes, for different operating regimes.. It involves using methods whose creation was inspired by the analogy with biological phenomena, such as genetic algorithms (GA) neural networks (ANN) [7] [8], or with socio-psychological phenomena such as the ant colony algorithm (ACO) [9] [10] and particulate swarms (PSO) [11] [12]. These methods link two different research areas: operational research and artificial intelligence [13] [14]. Particular interest has been given to the optimization method based on biogeography (BBO: Biogeographybased- optimization)[15]. This young method, inspired by the theory of dynamic equilibrium, is still in its infancy. We begin this article with a general definition of the problem. The construction and implementation of the RNA will be studied and discussed, followed by a presen więcej »

Personal navigation system using ultrawideband technology - DOI:10.15199/48.2019.11.36
Piotr KANIEWSKI Przemysław PASEK 
Advantages of ultrawideband (UWB) signals have made them applicable in many fields of technology. Due to many useful features they are commonly used in navigation [1,2]. The ultrawideband technology allows to achieve a very high accuracy of distance measurements, which positively affects the accuracy of positioning. Moreover, UWB signals are to some extent capable of penetrating obstacles, which enables positioning in closed spaces, such as buildings [1]. They are also highly immune to interferences from other sources of electromagnetic signals [3]. Their low-power and spread-spectrum signals are difficult to detect and localize [4,5] which may be an important feature if the personal navigation system is used by the military or other services. The most popular personal navigation systems are often based on GNSS systems, especially GPS [6,7]. Receivers of this system are commonly applied in portable devices and allow to determine the position of both vehicles and pedestrians. However, one of the biggest disadvantages of such systems is their limited capability of positioning inside buildings. In such conditions, Inertial Navigation Systems (INS) can be used, which are also frequently applied for navigational purposes [8,9]. Inertial Measurement Unit (IMU), which consists of accelerometers and gyroscopes, carried by the user allows to determine a user’s position in almost any conditions. In such solutions, however, increasing errors of user’s position estimation occur. The values of these errors depend on the technology that was used to make the measurement units and time. To reduce the errors, the use of expensive IMUs or integration of INS with other navigation systems is required. In this article, a high accuracy positioning system, using distance measurements between UWB radio modules to determine user’s position is presented. Description of the system The developed system uses PulsON 440 UWB radio mod więcej »

Pomiar i analiza czasu wykonania algorytmów PID2DOF w sterownikach Siemens S7-1500 - DOI:10.15199/48.2019.11.57
Józef GROMBA Grzegorz SIEKLUCKI Sylwester SOBIERAJ 
W programowaniu sterowników PLC mogą pojawić się problemy z realizacją założonych celów. Przyczyną mogą być zbyt długie czasy obliczeń sterowania (czasy wykonania algorytmu). Z uwagi na fakt szerokiego zastosowania regulatorów o dwóch stopniach swobody (PID2DOF) [1] również w PLC, w artykule przeprowadzono analizę czasu obliczeń algorytmu dla sterownika S7 firmy Siemens. Badania zostały przeprowadzone na sterowniku S7-1500 z jednostką CPU 1515 (6ES7 515-2AM01-0AB0) programowanym przy pomocy TIA Portal V15. Cyfrowe przetwarzanie danych w czasie rzeczywistym Sterowanie w czasie rzeczywistym różnymi obiektami automatyki związane jest z bezwzględnym przestrzeganiem twierdzenia o próbkowaniu wraz z towarzyszącymi ograniczeniami [2]. Wówczas, jakość regulacji założona w procesie projektowania systemu jest możliwa do spełnienia (praktyka nie odbiega znacznie od teorii). Dodatkowo, czas wykonania algorytmu regulacji powinien być około 10. krotnie krótszy od przyjętego czasu próbkowania Tp. Przy spełnieniu tego założenia czas od pomiaru sygnału wyjściowego obiektu do wysterowania go może zostać pominięty. W przeciwnym wypadku cyfrowy układ automatycznej regulacji należy analizować zgodnie z rysunkiem 1, gdzie przyjęto oznaczenia zgodnie ze sterownikami S7 i regulatorem PID Compact V2 [3]: w - wartość zadana, y - sterowanie wyznaczone przez regulator, x - sygnał wyjściowy (pomiarowy) z obiektu. Rys.1. Model regulacji cyfrowej realizowanej w oparciu o PLC W układach automatycznej regulacji obiekt i regulator zwykle zapisuje się w postaci transmitancji i podaje się opóźnienie. Wówczas analiza oraz synteza układu jest standardowa - dynamika układów o parametrach skupionych. W przypadku gdy czas obliczeń sterowania na podstawie sygnałów pomiarowych jest porównywalny z czasem próbkowania występuje konieczność uwzględnienia go w postaci elementu opóźniającego: (1)   (s s )(s s )(s s ) (s s )(s s )(s s ) G (s) e b1 więcej »

Pomiar strumienia mokrego gazu kryzą standardową - DOI:10.15199/48.2019.11.23
Mariusz R. RZĄSA Barbara TOMASZEWSKA-WACH 
Pomiar strumienia gazu za pomocą kryz ma szerokie zastosowanie w wielu gałęziach przemysłu. Podczas transportu gazu w warunkach przemysłowych wielokrotnie dochodzi do wykroplenia się par cieczy transportowanych wraz z gazem. Pojawienie się niewielkich kropelek cieczy powoduje, że mierząc strumień metodą zwężkową powstaje błąd wynikający ze zmiany własności fizycznych mierzonego gazu [1, 2, 3]. Gdyż gaz przestaje być gazem, a staje się mieszaniną dwufazową gaz-ciecz [4]. Zastosowane standardowych zależności jakie stosuje się do pomiaru gazu prowadzi do znacznych błędów. Znajomość prawidłowej wartości strumienia masy przepływającej cieczy jest ważna ze względu na fakt, iż występuje on w wielu procesach technologicznych, a także jego pomiar jest istotnym zagadnieniem badawczym. Innym obszarem zastosowanie opisanej metody jest wydobywanie gazu ziemnego, gdzie bardzo często występuje przepływ gazu mokrego, czyli takiego którego udział objętościowy fazy ciekłej nie przekracza 5%. W literaturze jest wiele przykładów zastosowania przepływomierzy zwężkowych do pomiarów mieszaniny gaz - niewielka ilość cieczy. [5, 6]. W wielu ośrodkach badawczych prowadzone są badania nad poszukiwaniem nowych lub udoskonaleniem istniejących technik pomiaru strumienia gazów mokrych. Niejednokrotnie są to urządzenia o dużych gabarytach, skomplikowanej konstrukcji i wysokim koszcie wykonania. [7, 8]. Zatem istnieje duże zapotrzebowanie na przyrządy o stosunkowo prostej konstrukcji i niskim koszcie wykonania. Z uwagi na prostotę budowy, niski koszt oraz niezawodność działania przepływomierze zwężkowe stanowią jedną z najtańszych i najbardziej rozpowszechnionych grup przyrządów do pomiarów strumienia. Zasada działania przepływomierzy zwężkowych Pomiar strumienia płynu metodą zwężkową polega na wykorzystaniu zwężenia przekroju przepływowego (rys. 1). Przepływ gazu przez przewężenie powoduje wzrost prędkości przepływającego płynu, co prowadzi do powsta więcej »

Porównanie dwóch klasyfikatorów opartych na metodzie DTW i połączonych metodach PCA-LDA do rozpoznawania obiektów morskich na podstawie obrazów FLIR - DOI:10.15199/48.2019.11.51
Tadeusz PIETKIEWICZ 
Pasywne sensory podczerwieni FLIR (forward looking infra-red) wykorzystywane do rozpoznawania obiektów morskich rozmieszczane są na powietrznych platformach rozpoznania i okrętach. Używane są przede wszystkim do rozpoznania krótkiego i średniego zasięgu i identyfikacji obiektów nawodnych (statków i okrętów). Sensor FLIR dostarcza cyfrowe obrazy monochromatyczne, w których każdy piksel scharakteryzowany jest jedną liczbą - luminancją piksela, mającą interpretację temperatury punktu. Zadanie rozpoznawania obiektów morskich na podstawie obrazów FLIR sprowadza się do odpowiedzi na pytanie, czy obiekt zawarty w obrazie jest rzeczywiście obiektem morskim (w szczególności możemy zawęzić zbiór interesujących nas obiektów do pewnego podzbioru), a w przypadku uzyskania odpowiedzi pozytywnej oczekujemy odpowiedzi na kolejne pytanie, czy rozpoznawany obiekt należy do którejś z klas obiektów wcześniej sklasyfikowanych, a jeśli tak, to do której. Obraz wejściowy poddawany wyżej opisanej procedurze jest najczęściej zniekształcony na skutek zaszumienia, a także wykonania go z różnej odległości i pod różnym kątem obserwacji. Na jakość obrazu mają również wpływ charakterystyki kamery FLIR. To wszystko powoduje, iż proces rozpoznawania jest procesem wieloetapowym, a wyniki rozpoznania noszą cechy przypadkowości. Niemniej jednak obrazy tego samego obiektu wykonywane w różnych warunkach mają cechy wspólne, które zwane są cechami dystynktywnymi. Ich wartości decydują o odpowiedziach na wcześniej sformułowane pytania, w szczególności o wyznaczeniu wartości odległości rozpoznawanego obiektu od obiektów wzorcowych przechowywanych w bazie wzorców. Cechy dystynktywne obiektów tworzą przestrzeń wartości cech dystynktywnych. Postać przestrzeni cech dystynktywnych zależy od przyjętej metody rozpoznawania i przyjętego klasyfikatora. Należy podkreślić, że w literaturze przedmiotu można znaleźć definicje kilku klasyfikatorów, które mogą być użyte do ro więcej »

Problemy sterowania złożonym eksperymentem z rejestracją EEG - DOI:10.15199/48.2019.11.59
Mariusz WISEŁKA Dariusz SAWICKI Agnieszka WOLSKA Kamila NOWAK 
Sterowanie i kontrola różnego rodzaju procesów przy wykorzystaniu metod komputerowych stały się nieodzownym elementem życia człowieka. Można wskazać wiele zalet sterowania komputerowego. Wśród najważniejszych wymienia się: zachowanie powtarzalności procesu, zachowanie stałych parametrów, odpowiednio szybkie działanie, możliwość eliminowania błędów, optymalizacja procesu. Istotną cechą komputerowego sterowania procesem jest to, że mimo automatyzacji zadań, człowiek powinien mieć kontrolę nad realizacją całego procesu. To on decyduje o rozpoczęciu i zakończeniu badań; to on ustala parametry wejściowe i poddaje wyniki ostatecznej analizie. W przypadku sterowania procesami w rozproszonym systemie komputerowym ważnym czynnikiem jest zapewnienie poprawnej komunikacji, często między różnymi środowiskami programistycznymi, systemami operacyjnymi czy aplikacjami. Sposób połączenia wszystkich elementów będzie wpływał między innymi na występowanie potencjalnych błędów, szybkość wysyłania informacji między kolejnymi elementami oraz skomplikowanie całego układu [1]. Dodatkowym problemem w przypadku budowania systemów rozproszonych jest ingerencja człowieka w parametry w trakcie trwania procesu - różnego rodzaju interakcje człowieka z systemem takie jak np. wprowadzenie dodatkowych zmiennych lub zmiana ich wartości w trakcie trwania procesu, dodawanie, odejmowanie lub zmienianie kolejności kroków procesu. Każda ingerencja człowieka musi zostać uwzględniona na etapie projektowania stanowiska. Wszystkie sytuacje gdzie istnieje możliwość ingerencji człowieka z systemem powinny być przygotowane na taką ewentualność i odpowiednio zaprogramowane tj. powinny udostępniać tylko parametry niezbędne do dalszego poprawnego funkcjonowania procesu. W przypadku zastosowania rejestracji EEG w badaniach eksperymentalnych z udziałem osób badanych rzadko kiedy omawia się aspekty techniczne związane z budową sprawnie działającego stanowiska badawczego. więcej »

Realizacja ultradźwiękowej metody echa do pomiarów wybranych parametrów przepływu ciekły metal-gaz - DOI:10.15199/48.2019.11.11
Artur ANDRUSZKIEWICZ Kerstin ECKERT 
Przepływy dwufazowe ciekły metal-gaz spotyka się w wielu procesach technologicznych. Przykładami mogą być metalurgiczne procesy pozapiecowej rafinacji stali. Procesy odgazowywania, oczyszczania, czy uszlachetniania ciekłego metalu związane są bezpośrednio z jego przedmuchiwaniem argonem. Efektywność rafinacji zależy m. in. od wymiarów wznoszących się pęcherzy, czasu przebywania w metalu, obszaru ich wznoszenia oraz strumienia przepływu pęcherzy. Znajomość tych wielkości może pozwolić na optymalizację i kontrolę procesów metalurgicznych. W celu uzyskania pełnego banku danych o wznoszących się pęcherzach gazowych niezbędne stają się badania modelowe przepływów dwufazowych ciekły metal- gaz. Wśród wielu metod wykorzystywanych do badań takich przepływów, w ostatnich latach, coraz większe znaczenie znajdują metody ultradźwiękowe. Należą do nich: metoda dopplerowska (UDV) oraz impulsowa metoda echa. Pierwsza z nich rozwijana w Forschungszentrum Dresden-Rossendorf pozwala na wyznaczenie zarówno prędkości pęcherzy jak i prędkości cieczy. Z opublikowanych prac wykorzystujących metodę UDV należy prace prowadzone przez Eckerta,Gerbeta i Zhanga, z których wyniki przedstawiono w artykułach [1,2]. Druga z metod- impulsowa ultradźwiękowa metoda echa rozwijana była w TU Dresden, w ramach projektu SFB 609 "Elektromagnetische Strömungsbeeinflussung in Metallurgie, Kristallzüchtung und Elektrochemie". Oprócz wyznaczenia prędkości pęcherzy umożliwia ona określenie położenia, rozdziału czy o obszaru przepływu fazy gazowe [3,4]. Celem pracy jest przedstawienie zrealizowanej ultradźwiękowej impulsowej metody echa, przy zastosowaniu defektoskopu USIP 40, do badań przepływów dwufazowych ciekły metal-gaz. Opracowano ją dla reaktora modelowego, w którym ciekłym metalem była eutektyka GaInSn, a faza gazowa- argon została wtłaczana za pomocą dyszy. W pracy przedstawiono przykładowe wyniki badań, oraz więcej »

Reducing the dissymmetry of load currents in electrical networks 0,4/0,23 kV using artificial neural networks - DOI:10.15199/48.2019.11.56
Oleksandr MIROSHNYK Zbigniew ŁUKASIK Andrzej SZAFRANIEC Petro LEZHNIUK Stepan KOVALYSHYN Тaras SHCHUR 
The problem of the quality of electric energy plays a prominent role in development strategies of virtually every state. In European countries, it is believed that if the electricity losses exceed 7 - 9%, then such a transfer of electric energy is inefficient. Therefore, a need has emerged to develop new methods and measures of reducing the losses and improving the indicators of electric energy quality. Numerous studies on the analysis of voltage up to 0,4/0,23 kV in rural networks operating modes [1 - 3] showed that current dissymmetry is due to of municipal and household workload, most of which consists of casual switching, single-phase power-consuming equipment that is non-uniformly distributed over the phases. Knowledge of current values of asymmetry in a network allows specifying its additional power losses comparing to the symmetrical mode and the possibility of applying measures to reduce the losses [2]. The changing load of single-phase residential consumers of electricity is erratic and it is very difficult to predetermine its value at any given time. Boundaries of load change can only be established with a certain probability [4, 5, 6]. Technical and economic characteristics of the network performance deteriorate sharply in single-ended mode: energy losses increase and the voltage deviation from the nominal [7, 8]. Lifetime of asynchronous motors attached to a network also declines sharply. Furthermore, there are a number of adverse electromagnetic effects, both in the network and in the load. Therefore, losses of active energy, resulting in non-uniformity of phase load lines 0,4/0,23 kV and consumer transformers 6-10/0.4 kV, may increase by more than a third compared with the losses that would have occurred with a uniform load [3]. Analyzing two types of asymmetry, systematic, which is caused by a constant uneven phase load over time, and probable, which is determined by randomly varying loads in time, one fir więcej »

Rozpoznawanie twarzy z wykorzystaniem technik głębokiego uczenia i fuzji danych obrazowych - DOI:10.15199/48.2019.11.39
Jolanta CHMIELIŃSKA Jacek JAKUBOWSKI 
Biometria jest nauką zajmującą się matematycznostatystycznymi badaniami zmienności populacji organizmów żywych oraz pomiarami ich mierzalnych cech, która znajduje szerokie zastosowanie w problematyce komputerowego rozpoznawania tożsamości. Oprócz oczekiwanej wysokiej wiarygodności działania systemu biometrycznego bardzo istotna jest akceptowalność sposobu pobrania danych do analizy. W wielu praktycznych zastosowaniach istnieje silna potrzeba realizacji koncepcji badania przesiewowego przeprowadzanego w trybie "online". Najlepszym materiałem do tego celu, ze względu na brak konieczności współdziałania podmiotu poddawanego identyfikacji i coraz lepsze uzyskiwane wiarygodności, jest zarejestrowany obraz twarzy. Dlatego też cieszy się on dużym zainteresowaniem wielu ośrodków badawczych zajmujących się opracowywaniem biometrycznych systemów identyfikacji i weryfikacji. Stosowane metody rozpoznawania twarzy można podzielić na dwie grupy: metody holistyczne, czyli oparte na analizie obrazu twarzy jako całości, oraz analityczne, bazujące na mierzalnych cechach ludzkiej twarzy. W ostatniej dekadzie rozwinęły się również metody będące podstawą podjętych w niniejszej pracy badań, które wykorzystują informacje zawarte w lokalnych cechach obrazów twarzy, ekstrahowanych za pomocą masek realizujących operację splotu (konwolucji) [1]. Zastosowane narzędzie obliczeniowe realizuje proces nienadzorowanego poszukiwania dystynktywnej informacji bezpośrednio w obrazie i znajduje zastosowanie np. w aplikacjach społecznościowych jak Facebook, którego algorytm DeepFace [2], nauczony na bazie 4 milionów fotografii profilowych użytkowników portalu, oferuje błąd rozpoznawania w zadaniu weryfikacji na poziomie 3%, a więc niższym od błędu człowieka. Problem badawczy Identyfikacja osoby na podstawie twarzy jest dla ludzkiego mózgu zadaniem wręcz trywialnym (z wyjątkiem osób cierpiących na prozopagnozję), jednak automatyzacja maszynowa tego procesu je więcej »

Shunt Regulation Analysis of The Short-Circuit Inductance based on 3D Magnetic Field in High Reactance Transformer with Movable Shunt - DOI:10.15199/48.2019.11.08
Bronisław TOMCZUK Dawid WEBER Dawid WAJNERT 
A lot of papers and books have already been performed on the calculation of magnetic fields in electrical devices [8]. Many calculations of electromagnetic parameters were carried out also for transformers. The innovative designing of such objects have also been based on analyses of magnetic field distributions using both two-dimensional and three-dimensional mathematical models. It concern also the so called High Leakage Reactance (HLR) transformers. They are special, regulating transformers and they are still used as reliable power sources. For example, they are used in high-current systems [12,13] and for an electric arc excitation. They can supply some welding apparatus and discharge lamps without applying of some electronic devices. In this way, we do not introduce some additional harmonics into a power grid except those resulting from the specificity of the electric arc. HLR transformers as well as other electromagnetic devices are built from a magnetic core formed from thin laminations of magnetic material and from windings fixed on the core. They produce relatively high leakage magnetic flux which splits not only on the windings but also on the armature of those devices. For example, the movable shunt providing the changeable magnetic coupling between primary and secondary windings in HLR transformers makes possible infinitely adjustable secondary voltage to keep the secondary current to be constant. The HLR transformers’ leakage system calculation was started from a two-dimensional field analysis with the Finite Difference Method (FDM) [18]. Due to the unlimited leakage magnetic flux, the 2D method of integral equations was also used [18]. These calculations were mainly related to shortcircuit reactance determination [15, 17]. In order to speed up the design method of HLR transformers the scaled models were also used [23]. 2-D mathematical models well reflect the reality in magnetic flux distribution for sy więcej »

Sparse representation of a non-stationary signal in compressive sensing technique - DOI:10.15199/48.2019.11.17
Beata PAŁCZYŃSKA Dariusz ŚWISULSKI 
Compressive sensing (CS) is a technique of measuring signals and then reconstructing them with incomplete data (in comparison to classical measurement methods) [1, 2, 3]. It enables sampling below Nyquist frequency, without (or with slight) loss of a reconstructed signal quality. Particularly, CS is used in signal processing to obtain and recover sparse or compressible signals. Sparsity is the inherent property of those signals for which all information, contained in the signal, can be represented only by means of several significant components, compared to the total signal length. There is a base, in which the signal representation has a few components differing from zero. A signal can have sparse representation either in the original domain or in some transform domains. The time-frequency domain provides an ideal base to sparsely represent the non-stationary signals for two main reasons [4, 5]. First, it is extremely difficult to find a sparse representation of a nonstationary signal separately in the time domain as well as in the frequency domain. The second one is related to the fact that recent advances in computational resources enabled fast manipulations of large matrices, which are required for CS of non-stationary signals in the time-frequency domain. Sparse representation originates from atomic decomposition, which is used for describing functions in mathematics [6]. Atomic decomposition can represent arbitrary signals as a superposition of some optimal elementary waveforms (atoms) that best match the signal major structures, based on a dictionary (a library of atoms). The number of atoms used in the signal representation determines the level of the sparsity. In this paper, the matching pursuit (MP) algorithm is applied to seek sparse atomic decomposition. Furthermore, two types of dictionaries are used to reconstruct the timefrequency representations of a signal, namely the Gaussian and the chirplet dictionaries więcej »

Sterowanie dla silnika synchronicznego wzbudzanego magnesami trwałymi za pomocą zmodyfikowanej modulacji unipolarnej przeznaczonej dla silnika bezszczotkowego - DOI:10.15199/48.2019.11.58
Maciej CHOJOWSKI Marcin BASZYŃSKI 
Silniki wzbudzane magnesami trwałymi są coraz częściej stosowane w warunkach przemysłowych. Jest to spowodowane większą sprawnością maszyn w porównaniu do silników indukcyjnych [1]. Silniki synchroniczne o magnesach trwałych możemy podzielić na bezszczotkowe silniki prądu stałego (BLDC) oraz maszyny synchroniczne (PMSM). Teoretyczne rozważania dotyczące silników BLDC zakładają idealnie trapezoidalny kształt siły elektromotorycznej. Niestety, indukowana siła elektromotoryczna w silnikach bezszczotkowych częściej jest kształtu sinusoidalnego i rzadko jest idealna [2]. Przy użyciu klasycznego sterowania dla silnika, tj. modulacji bipolarnej lub unipolarnej, wygenerowany moment napędowy będzie zawierał tętnienia momentu i w efekcie powodował drgania w napędzanym urządzeniu, co jest zjawiskiem niepożądanym [3]. Klasyczne sterowanie silnikiem BLDC z dwoma kaskadowo połączonymi regulatorami PI pozwala na łatwiejszą regulację prędkości niż sterowanie wektorowe, które jest stosowane do maszyn PMSM [4],[5]. W celu uzyskania nowej, prostej metody sterowania dla maszyn PMSM konieczna jest implementacja sterowania dla maszyn BLDC. W artykule przedstawiono metodę sterowania układu napędowego przeznaczonego dla maszyn PMSM, które nie będzie odbiegało od sterowania przeznaczonego dla silników bezszczotkowych [6], [7]. Zastosowany zostanie zamknięty układ regulacji, który pozwoli na zadanie prędkości referencyjnej oraz ograniczenie wartości momentu napędowego. W układzie regulacji jest zawarty obserwator momentu, podobny do przedstawionych w [8], [9]. Sterowanie zostanie podzielony na dwa tory w celu osiągnięcia mniejszych drgań momentu w stanie ustalonym. Wyniki symulacji napędu zostaną przedstawione i szczegółowo omówione. Logika komutacyjna zostanie oparta o sygnały estymowane przez resolver oraz zmodyfikowaną modulację unipolarną, przeznaczoną dla silników BLDC [7]. Model matematyczny silnika wzbudzanego magnesami trwałymi Do prze więcej »

Szacowanie estymaty menzurandu temperatury skóry człowieka podczas próby wysiłkowej - DOI:10.15199/48.2019.11.20
Anna GOLIJANEK-JĘDRZEJCZYK Ariel DZWONKOWSKI Dariusz ŚWISULSKI 
Prawidłowo wykonany pomiar wymaga, by jego wynik uzupełniony był parametrem jakościowym charakteryzującym ten pomiar, czyli oceną niedokładności [1, 2]. Ważne jest nie tylko rzetelne i sumienne wyznaczanie niepewności pomiaru, ale także staranne oszacowanie prawidłowej wartości estymatora menzurandu. Zgodnie z przewodnikiem GUM [1] estymator menzurandu obliczany jest najczęściej, jako wartość średnia arytmetyczna wyników. Takie podejście jest słuszne przy założeniu, że obserwacje są niezależne, ich liczba jest dostatecznie duża i można je opisać rozkładem normalnym [3]. W większości analiz metrologicznych autorzy postępują zgodnie z zaleceniami przewodnika. Jeżeli obserwacje nie mają rozkładu normalnego to uzasadnionym jest stosowanie innych estymatorów menzurandów [3]. Autorzy niniejszej publikacji w poprzednich opracowaniach związanych z szacowaniem niepewności pomiaru temperatury skóry człowieka podczas próby wysiłkowej [4] postępowali zgodnie z zaleceniami podanymi w przewodniku GUM. Celem niniejszej publikacji jest analiza zasadności takiego podejścia. Pomiar temperatury skóry człowieka Obecnie w medycynie, w celu określenia ogólnej wydolności tlenowej organizmu człowieka, stosowane są dokładne, bezinwazyjne i bezpieczne metody pomiarowe. Jednymi z takich badań są wysiłkowe badania sercowo- płucne - CPET (ang. cardiopulmonary exercise test) [5, 6]. Badanie takie, najczęściej realizowane w formie testu spiroergometrycznego, może zostać przeprowadzone zarówno dla pacjentów cierpiących na schorzenia układu krwionośnego czy oddechowego jak również dla osób czynnie uprawiających sport i pozwala określić maksymalny pobór tlenu (VO2max). Tego typu test jest najczęściej realizowany podczas narastającego wysiłku i umożliwia uzyskanie informacji na temat zmian w stężeniach wydychanych gazów: tlenu (pO2) i dwutlenku węgla (pCO2), saturacji krwi tlenem (SpO2), częstości skurczów serca (HR) i ciśnienia tętniczego krwi (BP) o więcej »

Szacowanie niepewności pomiaru mocy chwilowej w układzie do bezinwazyjnej diagnostyki łożysk - DOI:10.15199/48.2019.11.13
Ariel DZWONKOWSKI 
Jednym z kluczowych zagadnień w procesie nadzorowania pracy silników indukcyjnych jest ich niezawodność. Na podstawie danych statystycznych można wnioskować, że najczęściej powodem awarii tego typu maszyn są uszkodzenia łożysk. Dlatego też ocena stanu technicznego tych elementów jest ważna i aktualna zarówno pod względem technicznym i ekonomicznym. Współcześnie, do diagnostyki łożysk tocznych silników indukcyjnych, wykorzystywane są bezinwazyjne metody pomiarowe. Jednym z takich rozwiązań jest sposób oparty na pomiarze i analizie sygnału mocy chwilowej. Wielkość ta została zdefiniowana jako iloczyn chwilowych wartości napięcia i natężenia prądu zasilających maszynę [1]. W tym podejściu wykorzystano zjawisko polegające na chwilowych zmianach wartości momentu oporowego, które związane są z większym tarciem elementów w uszkodzonym łożysku. Fluktuacje te skutkują wahaniami mocy chwilowej, co w konsekwencji powoduje pojawienie się dodatkowych składowych harmonicznych widma iloczynu wartości chwilowych natężenia prądu i napięcia [1]. Składowe te mogą zostać wykorzystane jako wskaźnik diagnostyczny, na podstawie którego będzie można dokonać oceny stanu technicznego łożysk tocznych w silnikach indukcyjnych. Badania diagnostyczne łożysk silników indukcyjnych W wykorzystanej do celów diagnostyki łożysk metodzie, realizowanie badań opiera się na obliczeniu iloczynu wartości chwilowych napięcia i natężenia prądu, następnie analizie spektralnej uzyskanego sygnału oraz wyznaczeniu częstotliwości charakterystycznych dla uszkodzeń, w celu ich późniejszej identyfikacji w widmie mocy chwilowej [1]. Częstotliwości charakterystyczne dla uszkodzeń obliczane są na podstawie informacji dotyczących budowy i geometrii łożyska oraz prędkości obrotowej, przy wykorzystaniu zależności znanych z literatury [1, 2]. W prezentowanej metodzie diagnostycznej pomiary realizowane są poprzez pobranie sygnału, będącego miarą napięcia oraz natężenia prądu zas więcej »

Telemetryczny system do pomiarów efektywności energetycznej wentylacji - DOI:10.15199/48.2019.11.40
Wiktor OLCHOWIK 
Podstawowym zadaniem systemu wentylacji mechanicznej jest zapewnienie określonej intensywności wymiany powietrza, czyli zastępowanie powietrza "zużytego" z wnętrza powietrzem "świeżym" z zewnętrz budynku. Temperatura i wilgotność powietrza wewnątrz budynków zwykle jest regulowana w zadanych zakresach, natomiast na zewnątrz parametry atmosfery zależą od aktualnych warunków pogodowych, zmiennych w okresach dobowych i rocznych. W warunkach typowych dla klimatu na terenie Polski temperatury otoczenia na ogół różnią się od zadanych temperatur wewnątrz budynków. W celu zmniejszenia strat energii stosuje się wymienniki ciepła. Pomiar rzeczywistych parametrów eksploatacyjnych tych wymienników jest istotny z punktu widzenia bilansu energetycznego i ekonomicznego [4]. Oczywiście w bardziej rozbudowanych centralach wentylacyjnych występują wbudowane systemy pomiarowe. Mierzą one jednak przeważnie tylko temperaturę powietrza. Jest to niewystarczające do określenia efektywności energetycznej rekuperatora, ponieważ jest ona obliczana zgodnie ze wzorem (1). (1) N C 100% W C A h h h h    Gdzie: A - współczynnik efektywności energetycznej rekuperatora w [%], hN - entalpia powietrza na wylocie kanału nawiewu, hW - entalpia powietrza na wlocie kanału wywiewu, hC - entalpia powietrza z czerpni. Do obliczenia entalpii niezbędne są więc pomiary temperatury i wilgotności powietrza [2]. W nielicznych przypadkach wentylacji mechanicznej z rekuperacją występują układy mierzące temperaturę i wilgotność względną powietrza, ale dokładność pomiaru i zróżnicowanie parametrów każdego z czujników powoduje, że efektywność energetyczna jest obliczana z dużymi błędami. Dokładne pomiary efektywności energetycznej wykonywane są praktycznie tylko w warunkach laboratoryjnych [5]. System pomiarowy Do analizy efektywności energetycznej wentylacji mechanicznej konieczne są więc pomiary i rejestracja z odpowiednią częstotliwością p więcej »

Testing the extended capabilities of an industrial robot equipped with an adapted working tool - DOI:10.15199/48.2019.11.22
Romuald MASNICKI Cezary MIEZIANKO Rafał NICZYPORUK 
Industrial robots carry out various tasks depending on their design and functional properties. The tasks they can perform depend on their working space and the working tool (called the end-effector), usually located at the end of the kinematic chain of the robot [1]. The characteristics and properties of industrial robots are related to the specificity of their applications. The most important feature of industrial robots is their programmability. This enables the robot to be used for various industrial purposes without interfering with the mechanical construction of the robot and its control. Only two robot axes are required to reach any point on the surface. The robot must be provided with an additional axis to reach any point in space. Six-axis robots allow for any manipulation of the tip at any point in space thanks to their anthropomorphic (human-like limbs) construction. The number of robot axes is related to the number of degrees of freedom, as a rule it connects with the number of drives that set the joint in motion. The joint is a movable connection of two links (arms). The following types of joints are used: rotary, sliding, spherical, cylindrical and helical. The number of degrees of freedom is defined as the number of items moving independently in the robot, thus creating the scope of the robot's working space [2]. The working space is increased using the end-effector (working tip) depending on the needs. The space in which the tip of the robot can move can be limited by software to prevent mechanical damage to robots or neighbouring devices. An important feature of the robot is its lifting capacity. It defines the maximum permissible mass of transferred elements. At the design stage of the robot, this property cannot be determined without taking into account other factors, such as the allowable moments loading the robot's arm, namely the moment of inertia and the moment of force generated by the load. The speed więcej »

The danger of electric shock due to single-phase earth fault during a breakdown in portable conveyor belts - DOI:10.15199/48.2019.11.06
Grzegorz WIŚNIEWSKI Wiktoria GRYCAN Marcin HABRYCH 
Single-phase earth faults are one of the most often appearing disturbances in middle-voltage power networks [1]. The earth fault causes usually a direct hazard of an electric shock [2]. Proper detection and diagnosis of failing system components is crucial to efficient mining operations [3]. Electrical accidents may be the 4th leading cause of death in mining and are disproportionately fatal compared with most other types of mining accidents [4] The right implementation of high-resistance grounding of mine power systems reduces personnel hazards by limiting ground fault current and permits selective detection and clearing of faults. [5] Mine power systems of conveyor belts in coal mines are exposed to a continuous change of location due to frequent changes in their location.[6] Sliding conveyor belt transport both spoil and overburden and those, cooperating with mining machines, are adapted for frequent relocation. Their specific work conditions force unique construction [6,7], including skidding. Often, for better stabilization of the conveyor system, the elements of the conveyor are connected by the rails, intended for the conveyor's movement. Such a construction, consisting of foundation skids and rails, placed directly on the ground, is a natural earthing system. Usually, to power mining conveyor system, mining sheathed wires, powering individual drive stations, are used. These, usually run along the conveyor line and in stationary conveyors are suspended from the structure of the conveyor elements. The conveyor elements are on both sides joint by steel cables; they are usually welded to the structure and additionally connected by the protective conductor (PE) to the earth electrode of the central power station (20/6 kV). This paper presents the results of the tests of metallic and resistance arcing faults and analyses, whether the metal skids of the conveyor elements, located directly on the ground and connected on więcej »

The development of the complex of pulse-modulation amplifiers of voltage and current - DOI:10.15199/48.2019.11.47
Ruslan UFA Mikhail ANDREEV Vladimir RUDNIK Svyatoslav YUDIN Nina KOSMYNINA 
The reliable operation of relay protection and automation system (RPA), and electric power system (EPS) in a whole, is mainly determined by the correctness of their functioning algorithms, correspondence of the choosing parameters and calculated settings to the actual operation conditions of the RPA and EPS. Nowadays modern RPA are complex, highly organized devices with wide logical and mathematical functionality. So, tasks of adequate setting up and testing of such devices become even more complex and require the availability of the necessary equipment: a simulation system (hardware real-time simulation system, and signal amplifiers for closed loop testing/hardware-in-the-loop (HIL) simulation of the real RPA [1, 2, 3]. This test method allows the most complete investigation of the main features of RZA. The scheme of HIL simulation includes a signal source (for example, simulation system like a RTDS [4, 5], HYPERSIM [6], Hybrid Real-Time Power System Simulator (HRTSim) [7, 8]), wherein the part of EPS and the protected object are modeled), amplifiers of voltage and current, and a tested RPA (Fig. 1). Fig.1. Bloch-diagram of HIL simulation In Fig. 2 the examples of such testing scheme, wherein the part of EPS and the protected object are modelled in the HRTSim, while the developed complex of pulse-modulation amplifiers (PMAmp), which includes the voltage and current amplifiers (VAmp and IAmp) to interconnect with the real tested RPA. In this paper the results of the development of PMAmp, including three VAmp units and three IAmp, a power supply block (12 V/200 A), comparison of the developed VAmp and IAmp with existing analogues by the main parameters of amplifiers, as well as evaluation of the regulation characteristic of the VAmp and IAmp, the value of gains depending on the frequency of input signals and the phase accuracy of the output signal is presented. Main Principles Of Deveplemoed Of The PMAmp The VAmp units a więcej »

The use of acoustic emission signal (AE) in mechanical tests - DOI:10.15199/48.2019.11.03
Katarzyna PANASIUK Lesław KYZIOŁ Krzysztof DUDZIK 
The essence of acoustic emission (AE - acoustic emission) is the measurement of elastic wave energy, which arises under the influence of material load [1]. It is a passive non-destructive method. It is associated with the formation and propagation of elastic waves generated in the medium as a result of dynamic processes taking place in it [2]. External loads and internal stresses are the result of their occurrence and can be detected on the surface of the structure using piezoelectric transducers [3, 4]. In the structures of composite materials the wave velocity due to anisotropy / material thickness is variable, depends essentially on the direction of propagation and is much higher towards fibrosis [5]. Measurements of this type of impulses are an excellent method of monitoring the processes of destruction of composites, detecting defects and internal defects and structural changes [6]. In composites the beginning of material destruction is manifested in the form of matrix microcracks, disturbances of fiber and matrix adhesion, fiber breakage, delamination resulting from an internal defect. The signal energy generated on the microcracks is caused by elastic waves of stresses, which are then recorded by the transducer [7, 8]. The resulting noise is removed by medium-pass filters with a frequency of 20 ÷ 300 kHz. Signal monitoring, recording and processing is implemented in the entire volume of the composite material under test [9]. The information contained in the waveforms, such as amplitude, frequency and duration, allow you to fully visualize the changes taking place in composite materials during their operation [10, 11]. Acoustic emission (AE) demonstrates the ability of an effective SHM monitoring system (Structural Health Monitoring) and detection of resulting discontinuities / defects in loaded materials [12, 13]. It i więcej »

Układ dozorująco-terapeutyczny systemu transmisji danych w sieci przemysłowej - DOI:10.15199/48.2019.11.42
Marcin BEDNAREK Tadeusz DĄBROWSKI 
W referacie przedstawiono sposób implementacji układu dozorująco-terapeutycznego systemu transmisji danych w sieci przemysłowej wykorzystując wbudowane mechanizmy oprogramowania wizualizacyjnego. Sieć przemysłowa łączy elementy rozproszonego systemu sterowania. W skład rozpatrywanego mini-systemu wchodzą [1]: - stacje procesowe - sterowniki przemysłowe sterujące procesem; - stacja operatorska - komputery przeznaczone do wizualizacji i oddziaływań operatorskich, z oprogramowaniem dedykowanym lub uniwersalnym pakietem SCADA (ang. Supervisory Control And Data Acquisition) [2]; - stacja inżynierska - najczęściej komputer przenośny wykorzystywany m.in. do programowania stacji procesowej oraz przesyłu programu sterującego do pozostałych stacji systemu; - stacja diagnostyczna - prowadząca dozorowanie procesu komunikacji oraz, w razie konieczności, uruchamiająca odpowiednie działania terapeutyczne (oddzielne urządzenie lub dodatkowe funkcje stacji operatorskiej). Rys.1. Rozpatrywany system transmisji danych W przedstawionym układzie stacja diagnostyczna nie jest oddzielnym urządzeniem. Jej funkcje zostały zaimplementowane w stacji operatorskiej. Rysunek 1. przedstawia uproszczony system. Dla większej czytelności pominięto tutaj stację inżynierską, podłączaną do systemu okazjonalnie w celu rekonfiguracji systemu. Komunikacja w przedstawionym systemie odbywa się na zasadzie mechanizmu odpytywania (ang. polling). Stacja operatorska (master) wysyła komunikaty-polecenia, na które reagują stacje procesowe (typu slave). Przykładem protokołu działającego na takiej zasadzie jest Modbus RTU [3, 4], dla którego w pracy przedstawiono realizację działań dozorująco-terapeutycznych. Stacje procesowe nie mogą samodzielnie inicjować wymian komunikatów. Zarezerwowane jest to dla stacji nadrzędnej - stacji operatorskiej. Wyróżnia się dwa główne rodzaje wymian komunikatów z danymi: - Komunikat-polecenie, w odpowiedzi na który stacja podrzędna więcej »

Use of the D-decomposition technique for gains selection of the Dual Active Bridge converter output voltage regulator - DOI:10.15199/48.2019.11.61
Karol NAJDEK Radosław NALEPA 
Frequently used power electronics converters are still somehow challenging objects to control. This is not in terms of the control structure selection but rather in terms of the controller gains selection. Gains which guarantee stability of the unit in predefined operation range and also satisfactory dynamic performance. The operation range is to be understood here not only as power or voltage but also as operating temperature or components tolerance. There is a number methods available for calculation of the gains in the continuous and the discrete domains [1, 2]. Nevertheless, the methods relay on numerous assumptions, simplifications and conversions. This sometimes does not reveal look of the complete set of stable solutions. The set from which one can choose intentionally subsets guaranteeing desired dynamic performance at certain stability margin. To overcome such limitation some rather non-standard techniques are to be used. One of them is the D-decomposition method proposed by Russian mathematician Yuri Isaakovich Neimark in 1948 [3]. The technique is relatively easy to use in the era of computers and is a subject to consideration in this article. The method determines asymptotically stable region (or regions if applicable) in space of parameters which can be the controller gains. Additionally, with some modifications it takes into account constrains related to desired phase and gain margins, PM and GM respectively [4]. The D-decomposition technique has been applied to gains selection of the Dual Active Bridge converter, DAB, output voltage PI regulator. The DAB topology, see Fig. 1, is commonly used in the electric power conversion chains where bidirectional power flow is required [5]. Mathematical derivation of the circuit transfer function for the control purpose is not straight forward. The model strongly depends on control scheme applied [6]. Therefore for purpose of this research the transfer function has bee więcej »

Wpływ oczyszczenia danych pomiarowych na wyznaczenie wartości przepływu masowego za pomocą kryzy - DOI:10.15199/48.2019.11.14
Anna GOLIJANEK-JĘDRZEJCZYK Robert HANUS Marcin ZYCH Andrzej MROWIEC 
Znajomość prawidłowej wartości strumienia masy przepływającej cieczy jest ważna ze względu na fakt, iż występuje on w wielu procesach technologicznych, a także jego pomiar jest istotnym zagadnieniem badawczym. Jedną z najczęściej stosowanych metod pomiaru przepływu jest metoda z wykorzystaniem kryzy pomiarowej. Kryza to cienka tarcza wmontowana w rurociąg. Zaletami tego typu przepływomierza jest prosta konstrukcja, wysoka niezawodność działania oraz możliwość zastosowania w szerokich zakresach ciśnienia i temperatury [1, 2, 3]. Współcześnie wymaga się, aby wraz z prezentowanym wynikiem pomiaru przedstawiany był także parametr jakościowy charakteryzujący ten pomiar, czyli ocena niedokładności pomiaru - niepewność pomiaru [3, 4, 5, 6, 7]. Często w przypadku badań doświadczalnych występują silne, systematyczne i nieznane oddziaływania czynników zakłócających pomiar [8], których efektem jest znacznie większy rozrzut wyników, a tym samym nieprawidłowa wartość estymaty menzurandu oraz niepewności typu A. W niniejszym artykule przedmiotem zainteresowania autorów jest przeprowadzenie analizy wpływu oczyszczenia eksperymentalnych wyników pomiaru przepływu wody z dryftu i sprawdzenie, jak taka obróbka danych wpłynie na wartość estymaty menzurandu masowego natężenia przepływu oraz wartość niepewności typu A. Badania doświadczalne Zasada pomiaru z wykorzystaniem kryzy pomiarowej polega na tym, że strumień cieczy przepływający w przewodzie ulega przed zwężką przewężeniu. Natomiast za zwężką osiąga on minimalny przekrój, po czym strumień rozszerza się stopniowo wypełniając całą objętość przewodu. Ciśnienie płynu przed kryzą nieco wzrasta i zmniejsza się do minimum za kryzą w najwęższym przekroju strumienia. Dalej wskutek spadku prędkości ciśnienie znów wzrasta, nie osiągając jednak wartości ciśnienia przed zwężką. Strata części ciśnienia jest wywołana stratą energii na tarcie i tworzenie się wirów. Jej wartość zależy od kształtu prze więcej »

Wybrane aspekty diagnozowania komunikacji w sieciach przemysłowych - DOI:10.15199/48.2019.11.43
Marcin BEDNAREK Tadeusz DĄBROWSKI 
W artykule przedstawiono wybrane sposoby diagnozowania komunikacji w sieci przemysłowej. Rozpatruje się przypadek komunikacji (rys.1) pomiędzy stacjami rozproszonego mini-systemu sterowania (mini-DCS, ang. DCS - Distributed Control System): stacją operatorską (wizualizacja i oddziaływania operatorskie) i stacją procesową (sterowanie procesem). Zakłada się, że stacje prowadzą komunikację pomiędzy sobą przy pomocy wybranego protokołu przemysłowego. Ważnym elementem jest diagnozowanie komunikacji i utrzymanie zdatności systemu transmisji. Niezawodna komunikacja determinuje zdatność całego systemu sterowania. Do testowania komunikacji używa się zwykle kosztownych i skomplikowanych obsługowo zestawów, złożonych z zewnętrznego urządzenia i dedykowanego oprogramowania. Rys.1. Diagnozowanie komunikacji z użyciem zewnętrznego systemu diagnozującego Proponuje się przeniesienie funkcji diagnostycznych do stacji operatorskiej oraz zastąpienie zewnętrznych analizatorów protokołów, prostymi i znacznie tańszymi narzędziami programowymi (rys.2). Przedstawione w referacie rozwiązania dotyczą m.in.: - przechwycenia i analizy treści komunikatów przesyłanych magistralą komunikacyjną przez oprogramowanie monitora portu szeregowego z wykorzystaniem budżetowego rozwiązania konwertera standardu RS485/RS232; - możliwości wykorzystania pakietu wizualizacji do diagnozowania komunikacji prowadzonej w sieci Ethernet; - implementacji funkcji testujących w języku skryptowym stacji operatorskiej, pozwalających na manualny wybór testów komunikacji. Rys.2. Diagnozowanie komunikacji z wykorzystaniem stacji operatorsko-diagnostycznej Diagnozowanie komunikacji Profibus Rozpatrywana jest komunikacja wg protokołu Profibus prowadzona przy pomocy systemu magistralowego w standardzie RS485 [1] Do diagnozowania komunikacji prowadzonej wg protokołu Profibus [2] zazwyczaj stosuje się drogie analizatory protokołu. Przegląd rozwiązań można znaleźć w [3] Przykła więcej »

Wyniki badań podatności wybranych urządzeń na wyładowania elektryczne - wnioski - DOI:10.15199/48.2019.11.33
Kamil BIAŁEK Patryk WETOSZKA Jacek PAŚ 
W artykule przedstawiono zagadnienia związane z wynikami badań oddziaływania wyładowań elektrostatycznych - ESD na elementy, urządzenia i systemy elektryczne oraz szczególnie elektroniczne. Występowanie elektryczności statycznej powoduje także niekorzystne oddziaływanie na organizm ludzki. Ponadto, jej obecność jest dość często przyczyną zagrożeń pożarowo - wybuchowych [1,2,3]. Stanowi także poważne źródło zakłóceń w przebiegu procesów technologicznych oraz w pracy aparatury kontrolnej i pomiarowej, np. systemy informacyjno - pomiarowe, komputerowe, bezpieczeństwa, a także urządzenia sterujące, itd. [4,5,6,7]. Określenie stanu zagrożenia elektrycznością statyczną dla danego urządzenia (systemu) umożliwiają kryteria odnoszące się do stopnia naelektryzowania się danego ciała (urządzenia) w danym ośrodku (środowisku). Jest to określane przez: zgromadzony ładunek, natężenie pola elektrycznego lub napięcie elektrostatyczne. Podobne informacje wiążą się z kryteriami które określają energię tych wyładowań elektrostatycznych. Ładunek elektrostatyczny zgromadzony na ciele człowieka może wywierać niekorzystne działania biologiczne poprzez ekranowanie dostępu naturalnych pól elektrycznych i magnetycznych do organizmu człowieka [5,8,9]. Odpowiedzialnym za to jest tzw. efekt polowy, który polega na długotrwałym oddziaływaniu bardzo silnego pola elektrycznego, związanego z obecnością ładunku elektrostatycznego na materii ożywionej. Może on być przyczyną: odczucia bólu w kończynach dolnych i górnych (lub też na całym ciele), uczucie zmęczenia lub nadpobudliwości, bóle głowy, niepokój, nadmierne pocenie się, bezsenność, wzrost krzepliwości krwi i zakłócenia tzw. metabolizmu ustrojowego. Drugim, bardziej odczuwalnym oddziaływaniem biologicznym, jest wyładowanie elektrostatyczne. Wyładowania elektrostat więcej »

Wyznaczanie czasu propagacji Fali tętna w oparciu o sygnały EKG i PPG - DOI:10.15199/48.2019.11.27
Krzysztof SIECZKOWSKI Andrzej Piotr DOBROWOLSKI Tadeusz SONDEJ Robert OLSZEWSKI 
Wprowadzenie Choroby układu krążenia są obecnie uznawane jako główna przyczyna zgonów na świecie, a w Polsce są przyczyną blisko połowy zgonów [1]. Jedną z istotnych chorób układu krążenia jest nadciśnienie tętnicze, które mierzone jest zwykle metodą osłuchową Korotkowa. Metoda ta jednak nie nadaje się do ciągłego stosowania i jest niewygodna w użyciu. Z tego powodu poszukiwane są nowe metody pomiarowe, pozwalające na długoterminowy pomiar i dostarczające dodatkowych informacji klinicznych. Najbardziej obiecującą jest metoda polegająca na wykorzystaniu zależności czasu propagacji fali tętna PTT (ang. Pulse Transit Time) od ciśnienia panującego w tętnicach. Umożliwia ona ciągłą, nieinwazyjną, bezpieczną i wygodną dla pacjenta estymację ciśnienia tętniczego krwi [2]. Czas propagacji fali tętna, to czas po którym fala pokonuje określony odcinek układu krwionośnego. Znając dokładną odległość między punktami pomiarowymi można wyznaczyć dodatkowy parametr - prędkości rozchodzenia się fali tętna PWV (ang. Pulse Wave Velocity). Obecnie prowadzonych jest bardzo wiele badań mających na celu dokładny pomiar czasu propagacji fali tętna. Jedną z metod jest metoda polegająca na jednoczesnym pomiarze sygnału elektrokardiograficznego (EKG) i fotopletyzmograficznego (PPG) [3]. Wartość wypadkowa czasu propagacji fali tętna bazuje na wartościach, które wyznaczane są na podstawie momentów występowania określonych punktów charaktery-stycznych. W sygnale EKG najczęściej stosowanym punktem charakterystycznym jest wartość maksymalna załamka R. W przypadku sygnału PPG punktami charakterystycznymi mogą być np.: wartość minimalna, która stanowi początek fragmentu sygnału PPG, wartość maksymalna lub maksimum I lub II pochodnej [4]. Czas propagacji fali tętna wyznaczany od momentu wystąpienia załamka R sygnału EKG do określonego punktu charakterystycznego sygnału PPG określany jest mianem czasu PAT (ang. Pulse Arrival Time). Czas propagacji fali t więcej »

Zastosowanie akustycznej fali powierzchniowej do pomiaru temperatury szyn prądowych - DOI:10.15199/48.2019.11.32
Bogdan PERKA Marek SUPRONIUK Karol PIWOWARSKI 
Systemy diagnostyczne wykorzystujące powierzchniową falę akustyczną (SAW) stosowane są od połowy lat 60 jako filtry i linie opóźniające w systemach telekomunikacyjnych. Powierzchniowe fale akustyczne wytwarzane są na podłożu piezoelektrycznym za pomocą urządzenia IDT, które przetwarza energię elektryczną w energię mechaniczną. Czujniki fal akustycznych i przetworniki zbudowane z materiałów piezoelektrycznych zaczęto powszechnie wykorzystywać po drugiej wojnie światowej. Rozwój gospodarczy, który obserwujemy w ostatnich trzydziestu latach w Polsce, spowodował wzrost liczby urządzeń i obiektów energetycznych wymagających sprawnego zasilania w energią elektryczną. Jakość energii elektrycznej i niezawodność jej dostaw jest ważna zarówno dla operatora sieci przesyłowej jak i użytkowników podłączonych do tych sieci. Patrząc z perspektywy użytkowników energii elektrycznej, najistotniejsze problemy związane z niezawodnością dostaw i jakością energii elektrycznej to takie, które powodują straty produkcyjne i awarie urządzeń. Do wiadomości publicznej rzadko docierają informacje o awariach katastrofalnych, a jeszcze rzadziej podawane są koszty takich awarii, które liczone są w milionach dolarów. Konieczność wdrażania i ciągłego rozwoju systemów diagnozujących stan techniczny kluczowych urządzeń energetycznych dociera do świadomości coraz większej liczby użytkowników. Proces ten ze względu wysokie nakłady inwestycyjne jest powolny, ale świadomość potencjalnych strat wywołanych brakiem systemu ciągłego monitorowania stanu technicznego urządzeń wytycza kierunek, w jakim powinno się podążać w tym obszarze. Aktualnie tylko niewielki procent sieci i rozdzielni NN, SN i WN wyposażonych jest w systemy ciągłego monitoringu, pomimo że krytyczne zagrożenia stanowią jedną z wiodących przyczyn wyłączeń lub awarii zasilania. Zagrożenia krytyczne są efektem wzrostu temperatury spowodowanej przeciążeniem, korozją, utratą połączenia galwanicznego o więcej »

Zastosowanie przesuwnika fazy w strukturze mikrofalowego detektora częstotliwości - DOI:10.15199/48.2019.11.41
Mirosław CZYŻEWSKI Czesław REĆKO 
Mikrofalowe detektory częstotliwości pozwalają na natychmiastowe określenie częstotliwości nieznanego sygnału mikro-falowego. Z tego względu urządzenia tego typu wykorzystywane są w zastosowaniach wojskowych i cywilnych do pomiaru krótkotrwałych emisji mikrofalowych w bardzo szerokim paśmie częstotliwości [1,2]. Mikrofalowe detektory częstotliwości wykorzystywane są głównie w urządzeniach rozpoznania i przeciwdziałania radioelektronicznego, urządzeniach do monitorowania emisji elektromagnetycznych, miernictwie mikrofalowym. Ich cechą charakterystyczną jest prosta budowa, niski koszt wytwarzania, szerokie pasmo pracy. Ze względu na przebieg napięcia wyjściowego w funkcji częstotliwości wyróżniamy detektory typu "sinus" lub "cosinus". W literaturze występują także jako detektory jednofunkcyjne. Rodzaj zastosowanej metody przetwarzania napięcia wyjściowego uzależniony jest od ilości wykorzystanych detektorów częstotliwości oraz ich struktury wewnętrznej. Kluczowym problemem dla uzyskania określonej precyzji pomiaru częstotliwości chwilowych sygnałów mikrofalowych z wykorzystaniem szerokopasmowych detektorów częstotliwości jest zachowanie jednoznacznej charakterystyki wyjściowej w wybranym paśmie pracy. W celu poprawy tego parametru do układu detektora wprowadzony został dodatkowy przesuwnik fazy zbudowany w technologii linii mikropaskowej. Zastosowanie w strukturze detektora częstotliwości przesuwnika fazy pozwala na przesuwanie charakterystyki wyjściowej detektora na osi częstotliwości. Efektem jest jednoznaczna charakterystyka wyjściowa w wybranym zakresie pracy. W artykule do pomiaru częstotliwości wykorzysta więcej »

Zastosowanie technologii cyfrowego przetwarzania sygnałów w nowoczesnych układach reograficznych - DOI:10.15199/48.2019.11.54
Mirosław SZMAJDA Volodymyr KHOMA Yuriy KHOMA Viktor OTENKO 
Reografia (ang. Rheography) jest bardzo ważną nieinwazyjną diagnostyczną metodą badań układu sercowo-naczyniowego oraz oceny stanu ukrwienia tkanek [1,2]. Fizyczną podstawą tej metody jest pomiar zmian impedancji elektrycznej pewnego obszaru ciała spowodowanego pulsacjami przepływu krwi. Zarejestrowana krzywa, nazywana reogramem, zawiera cenne informacje o stanie układu sercowo-naczyniowego. Początki badań w dziedzinie reografii sięgają jeszcze połowy ubiegłego wieku [3,4]. Potencjał metody reograficznej wprost zależy od wsparcia aparaturowego, czyli parametrów technicznych, eksploatacyjnych i ergonomicznych reografów. Z uwagi na to aktualnym jest poszukiwanie nowych rozwiązań w budowie toru pomiarowego reografów z wykorzystaniem możliwości nowoczesnych komponentów, zwłaszcza urządzeń cyfrowego przetwarzania sygnałów. Stan wiedzy i zadania badawcze Sposób budowy toru pomiarowego reografu ma znaczący wpływ na wiarygodność wyników badań reograficznych. Zazwyczaj w nowoczesnych reografach jest wykorzystywany tzw. tetrapolarny prądowy układ 4 elektrod. Za pomocą dwóch elektrod aplikacyjnych podłączane jest źródło prądu zmiennego, a za pomocą dwóch elektrod odbiorczych (znajdujących się pomiędzy elektrodami aplikacyjnymi) mierzona jest różnica potencjałów, która jest proporcjonalna do impedancji badanego organu czy kończyny pacjenta. Zaletami schematu tetrapolarnego jest wyeliminowanie pasożytniczego wpływu impedancji kontaktowej (styk elektrody i tkanki) oraz bardziej równomierny rozkład gęstości prądu przy odpowiednim oddaleniu od siebie elektrod aplikacyjnej i odbiorczej [1,5,6]. Zmienny składnik impedancji mierzonej ΔZ, który jest spowodowany przez pulsację przepływu krwi, stanowi 0,05- 0,1% tzw. impedancji bazowej ZO badanego obszaru ciała bez uwzględnienia pulsacji krwi, a jego zakres wynosi jedynie 0,05-0,5 Ω. Podstawę modelu matematycznego, opisującego relację pomiędzy zmianą impedancji ΔZ a wywołaną więcej »

  • Aktualnoś›ci
  • Bestsellery
2019-10-28

Program priorytetowy "Mój Prąd"»

2019-04-04

ZAKOŃCZENIE III KONGRESU ELEKTRYKI POLSKIEJ - KOMUNIKAT »

2019-04-01

Przygotowania do obchodów 100-lecia SEP»

2018-12-12

100-LECIE POWSTANIA SEP»

2018-11-28

Posiedzenie Rady-Naukowo-Technicznej SEP»

2018-09-25

Targi Energetyczne ENERGETICS 2018»

2018-03-26

Rada Firm SEP»

2017-12-07

innogy dodaje energii na Sylwestra»

2017-11-16

Herkules wygrał przetarg GSM-R dla PKP PLK»

2017-11-15

Zasilanie dla metra»

Przekaźniki rezystancyjne

ELEKTROINSTALATOR
(2019-9)»

Diagnostyka falownika i silnika elektrycznego w 5 krokach

ELEKTROINSTALATOR
(2019-9)»

Sterowanie napędami rolet

ELEKTROINSTALATOR
(2019-9)»

Lokalizacja przewodów i kabli

ELEKTROINSTALATOR
(2019-9)»

Narzędzia do obróbki kabli i przewodów

ELEKTROINSTALATOR
(2019-9)»

Zioła i przyprawy najczęstsze zagrożenia mikrobiologiczne

PRZEMYSŁ SPOŻYWCZY
(2019-11)»

Związki bioaktywne w przyprawach i ich rola w dietoterapii

PRZEMYSŁ SPOŻYWCZY
(2019-11)»

Opakowanie jako "znak"?

OPAKOWANIE
(2019-11)»

Ustalenie linii brzegu w trybie ustawy Prawo wodne i pomiaru sytuacyjnego linii brzegu opisanego w § 82a rozporządzenia egib

PRZEGLĄD GEODEZYJNY
(2019-11)»

Wpływ modyfikacji chitozanu na jego strukturę i powierzchnię właściwą

GAZ, WODA I TECHNIKA SANITARNA
(2019-11)»

LISTA CZASOPISM

  • ATEST - OCHRONA PRACY
  • AURA OCHRONA ŚRODOWISKA
  • CHŁODNICTWO
  • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
  • DOZÓR TECHNICZNY
  • ELEKTROINSTALATOR
  • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
  • GAZ, WODA I TECHNIKA SANITARNA
  • GAZETA CUKROWNICZA
  • GOSPODARKA MIĘSNA
  • GOSPODARKA WODNA
  • HUTNIK - WIADOMOŚCI HUTNICZE
  • INŻYNIERIA MATERIAŁOWA
  • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
  • MATERIAŁY BUDOWLANE
  • OCHRONA PRZED KOROZJĄ
  • ODZIEŻ
  • OPAKOWANIE
  • POLISH TECHNICAL REVIEW
  • PROBLEMY JAKOŚCI
  • PRZEGLĄD ELEKTROTECHNICZNY
  • PRZEGLĄD GASTRONOMICZNY
  • PRZEGLĄD GEODEZYJNY
  • PRZEGLĄD MECHANICZNY
  • PRZEGLĄD PAPIERNICZY
  • PRZEGLĄD PIEKARSKI I CUKIERNICZY
  • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
  • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
  • PRZEMYSŁ CHEMICZNY
  • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
  • PRZEMYSŁ SPOŻYWCZY
  • RUDY I METALE NIEŻELAZNE
  • SZKŁO I CERAMIKA
  • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
  • WIADOMOŚCI ELEKTROTECHNICZNE
  • WOKÓŁ PŁYTEK CERAMICZNYCH

WYSZUKIWANE FRAZY

AURA żywność ekologiczna inżynieria materiałowa konserwanty suszenie przemysł chemiczny elektronika grafen haccp logistyka cukier herbata gospodarka mięsna miód materiały budowlane gospodarka wodna transglutaminaza dodatki do żywności pszenica Żarczyński ksylitol Przegląd Elektrotechniczny chleb ryby olej lniany pieczywo amarantus olej rzepakowy Jakość atest 7 KUKURYDZA czekolada gluten GMO antyoksydanty kaizen mleko ocena ryzyka drożdże błonnik przemysl chemiczny makaron ochrona przed korozją pompy ciepła Kociołek-Balawejder przemysł spożywczy Problemy jakości żywność funkcjonalna Przegląd papierniczy wino lody przegląd mleczarski orkisz proso kawa WZBOGACANIE ŻYWNOŚCI antocyjany ekstruzja zamrażanie nanotechnologia polifenole kakao kiełki kontakt aluminium zielona herbata ANALIZA SENSORYCZNA błonnik pokarmowy sól opakowania mięso reologia ocena ryzyka zawodowego rokitnik olejki eteryczne aronia opakowania aktywne enzymy karotenoidy jęczmień masło dynia kofeina mąka czerwińska biogaz kefir liofilizacja ścieki fotowoltaika żyto jakość żywności wiadomości elektrotechniczne CELIAKIA salmonella przyprawy probiotyki piwo znakowanie
  • WYDAWNICTWO | PRENUMERATA | REKLAMA | DRUKARNIA | KOLPORTAŻ | REGULAMIN E-USŁUG
Projekt i wykonanie: Pragma Software