Wyniki 1-5 spośród 5 dla zapytania: authorDesc:"Marcin Pietrzykowski"

Wydział Leśny UR - historia, teraźniejszość


  Rys historyczny.Wydział Leśny jako samodzielna jednostka organizacyjna został utworzony na Uniwersytecie Jagiellońskim w 1949 roku na mocy rozporządzenia Ministra Oświaty, przekształcającego Sekcję Rolniczą i Sekcję Leśną Wydziału Rolniczo-Leśnego w samodzielne wydziały: Rolniczy i Leśny. Początki akademickiego kształcenia leśnictwa w ośrodku krakowskim związane są z historią studiów rolniczych, od powstania w 1890 roku przy Wydziale Filozofi cznym Uniwersytetu Jagiellońskiego 3-letniego Studium Rolniczego. Na tym Studium prowadzono początkowo encyklopedyczne wykłady z nauk leśnych, a w 1919 roku utworzona została samodzielna Katedra Leśnictwa. Zorganizował ją i nią kierował do 1937 roku przybyły ze Lwowa Stanisław Sokołowski, wybitny leśnik, profesor Wyższej Szkoły Lasowej we Lwowie. Od 1937 r. Katedrą Leśnictwa kierował prof. dr hab. Edward Chodzicki, którego w 1939 roku Niemcy w Sonderaktion Krakau z innymi profesorami UJ wywieźli do obozu w Sachsenhausen. Po ustaniu działań wojennych z innymi profesorami zaangażował się w utworzenie samodzielnych studiów leśnictwa. Potrzeba ich zorganizowania w Krakowie wynikała z nowego podziału Europy po II wojnie światowej. Polska utraciła Lwów, gdzie na Wydziale Lasowym Politechniki Lwowskiej kształcono na poziomie akademickim leśników dla Polski południowej w przedwojennych granicach. Nie bez znaczenia było także przejęcie niektórych lasów przez Skarb Państwa. Niestrudzonym organizatorem tych studiów był prof. dr hab. Dezydery Szymkiewicz. To z jego inicjatywy już we wrześniu 1945 r. zostały uruchomione przy Instytucie Badawczym Leśnictwa w Krakowie Wyższe Kursy Leśne, z których w październiku 1946 r. utworzono Sekcję Leśną Wydziału Rolniczego UJ, przemianowanego na Rolniczo-Leśny, z dwiema sekcjami: rolniczą i leśną -Facultas Rerum Rusticarum et Forestalium Univeritatis Jagiellonicae Cracoviensis. W 1949 roku sekcję leśną przekształcono w Wydział. Pierwszym jego d[...]

Mini-model method based on k-means clustering DOI:10.15199/48.2017.01.18

Czytaj za darmo! »

Mini-model method (MM-method) is an instance-based learning algorithm similarly as the k-nearest neighbor method, GRNN network or RBF network but its idea is different. MM operates only on data from the local neighborhood of a query. The paper presents new version of the MM-method which is based on k-means clustering algorithm. The domain of the model is calculated using k-means algorithm. Clustering method makes the learning procedure simpler. Streszczenie. Metoda mini-modeli (metoda MM) jest algorytmem bazuja˛cym na próbkach podobnie jak metoda k-najbliz˙szych sa˛siadów, siec´ RBF czy sie´c GRNN ale jej zasada działania jest inna. MM operuje tylko na danych z najbli˙zszego otoczenia punktu zapytania. Artykuł prezentuje nowa˛ wersje˛ metody MM, która bazuje na algorytmie k-s´rednich. Domena MM jest obliczana przy pomocy algorytmu k-s´rednich. Uz˙ycie algorytmu klasteryzacji upros´ciło procedure˛ uczenia. (Metoda mini-modeli bazuja˛ca na algorytmie k-s´ rednich) Keywords: mini-model, local self-learning, function approximation, instance-based learning, k-means Słowa kluczowe: mini-modele, lokalne samouczenie, aproksymacja funkcji, algorytm bazuja˛cy na próbkach, algorytm k-s´rednich Introduction The paper presents new version of the mini-models method based on k-means clustering algorithm. The Minimodel method (MM-method) already was described in many publications. General idea was developed by Piegat [1] and depends on assumption that in the modeling task very often we are only interested in an answer to a specific query. Approach presented by global methods such as neural networks, neuro-fuzzy networks, polynomial approximation and other can be successfully replaced by a local constrained mini-model. MM operates only on the data from the local neighborhood of a query. Thus, learning process of MMmethod is in fact the identification process of a mathematical function, which describes the dependence between input and output variable[...]

Application of the k nearest neighbors method to fuzzy data processing DOI:10.15199/48.2017.01.19

Czytaj za darmo! »

The paper presents that with the application of fuzzy numbers arithmetic, the k nearest neighbors method can be adapted to various types of data. Both, the learning data and the input data may be in the form of the crisp number, interval or fuzzy number. Experiments proved that the method works correctly and gives credible results. There is also shown that the kNN method can be used for the determination of the fuzzy model output. Streszczenie. W artykule pokazano, z˙e z wykorzystaniem arytmetyki rozmytej, metoda k najbliz˙szych sa˛siadów moz˙e byc´ zastosowana do danych róz˙nego typu. Zarówno dane ucza˛ce, jak i dane wejs´ciowe modelu moga˛ byc´ liczbami, interwałami lub liczbami rozmytymi. Eksperymenty wykazały, z˙e metoda działa prwidłowo i daje wiarygodne wyniki. Zaprezentowano równiez˙ moz˙liwos´c´ uz˙ycia metody k najbliz˙szych sa˛siadów do wyznaczania wyjs´cia modelu rozmytego. (Zastosowanie metody k najbliz˙szych sa˛siadów do przetwarzania danych rozmytych) Keywords: k nearest neighbors method, fuzzy numbers, fuzzy arithmetic, fuzzy model Słowa kluczowe: metoda k najbliz˙szych sa˛siadów, liczby rozmyte, arytmetyka rozmyta, model rozmyty Introduction Learning of function approximators with an application of memory-based learning methods can be very often an attractive approach in comparison with creating of global models based on a parametric representation. In some situations like: small number of samples, lack of some attributes or data uncertainty, building of globalmodels can be difficult and then memory-based methods become one of possible solutions for the approximation task. The k-nearest neighbors (kNN) method belongs to the memory based approximation methods. It is one of the most important between them and probably one of the best described in many versions [1, 2, 6], but what is significant it is still the subject of new researches [10, 11, 15]. Other popular memory based techniques are methods based on locally we[...]

 Strona 1