Zinātniskās darbības atbalsta sistēma
Latviešu English

Publikācija: Dinamiskās sistēmas vadāmā Markova lēmumu modeļa uzbūve un izpēte ar datu ieguves metodēm

Publikācijas veids Promocijas darbs
Pamatdarbībai piesaistītais finansējums Nav zināms
Aizstāvēšana: 12.03.2012 14:30, Rīgas Tehniskās universitātes Datorzinātnes un informācijas tehnoloģijas fakultātē, Meža ielā 1, 3. korpusā, 202. auditorijā
Publikācijas valoda Latviešu (lv)
Nosaukums oriģinālvalodā Dinamiskās sistēmas vadāmā Markova lēmumu modeļa uzbūve un izpēte ar datu ieguves metodēm
Nosaukums angļu valodā Development and Study of a Controlled Markov Decision Model of a Dynamic System by Means of Data Mining Techniques
Pētniecības nozare 2. Inženierzinātnes un tehnoloģijas
Pētniecības apakšnozare 2.2. Elektrotehnika, elektronika, informācijas un komunikāciju tehnoloģijas
Autori Jurijs Čižovs
Atslēgas vārdi Markov Decision Process, Dynamic Pricing policy
Anotācija Promocijas darbs „Dinamiskās sistēmas vadāmā Markova lēmumu modeļa uzbūve un izpēte ar datu ieguves metodēm” ir veltīts jaunas pieejas izstrādei, kas ir paredzēta Markova procesa lēmumu pieņemšanas modeļa uzbūvei uzdevumos, kuru stāvokļi ir izteikti ar laikrindām. Markova lēmumu pieņemšanas process (MLPP) tiek veiksmīgi pielietots optimālās vadīšanas stratēģijas atrašanas uzdevumos stohastiskajos diskrētajos (un nepārtrauktos) procesos, kas attīstās laikā. Ņemot vērā matemātiskā aparāta prasības risināmā uzdevuma datu struktūrai, tas ir realizēts mūsdienu spēlēs, medicīnisko uzdevumu jomā (ārstēšanas stratēģijas izstrādāšana), modeļu robotu vadībā u.c. Līdz ar to trūkst darbu, kas izskata secīga lēmumu pieņemšanas procesa pielietošanu uzdevumos, kuru dati ir atspoguļoti ar laikrindām. Šādas īpatnības ir raksturīgas mūsdienu ekonomiskajiem uzdevumiem. Modeļa uzbūves sarežģītību nosaka MLPP aparāta prasības pētāmo datu struktūrai. Novērojamo parametru noteikta veida laikrindu realizācijas jāiegūst no relāciju datiem un jāpārveido atbilstoši MLPP struktūrai. Standarta pieejas paplašināšana darbam ar laikrindām ļauj izmantot visas standarta MLPP modeļa priekšrocības lēmumu pieņemšanai ekonomiskajos uzdevumos reālā laika režīmā. Skaitļošanas intelekta metožu virkne ir izmantota izstrādātas pieejas ietvaros. No metožu sinerģisma principa viedokļa skaitļošanas intelektā, šajā darbā mākslīgie neironu tīkli tiek aplūkoti kā MLPP stāvokļu telpas aproksimācija. Promocijas darba ietvaros izstrādātās modeļa uzbūves metodes aprobācijai ir izmantots cenu dinamiskas politikas uzdevums. Tika veikta programmatūras platformas izstrāde eksperimentu veikšanai, sastādīts eksperimentu plāns un aprakstīts to veikšanas process. Eksperimenti ir veikti izmantojot vienas no Latvijas pārtikas rūpniecības uzņēmuma pārdošanas dati. Dati aprasta pārdošanas cenas un produkciju apjomi vairumtirdzniecības pircējiem. Eksperimentu gaitā, pamatojoties uz reālām ziņām par pārdošanām, iegūti skaitliski MLPP modeļa tuvuma novērtējumi faktiskajai pētāmo procesu attīstībai, kā arī izstrādātās sistēmas funkcionēšanas novērtējumi testu datu kopai. Promocijas darbs ir uzrakstīts latviešu valodā, satur ievadu, 6 nodaļas, secinājumus, bibliogrāfisko sarakstu, 4 pielikumus, 70 attēlus, 15 tabulas un sastāv no 137 lapām. Bibliogrāfiskā saraksta ietver sevī 83 nosaukumus.
Anotācija angļu valodā The goal of the doctoral thesis “Development and study of a controlled Markov decision model of a dynamic system by means of data mining techniques” is to develop the decision making framework based on the Markov Decision Process (MDP) for the dynamic systems in which the data are represented as time series. The mathematical framework of MDP has been used successfully to find the optimal management strategy in discrete stochastic processes developing over time. There are a number of modifications and enhancements aimed at solving tasks with continuous parameters, partially observable environments, etc. However, the issues related to the building of an MDP-model which contains the data represented as time series, are open for research. The extension of the framework for working with time series allows one to take advantage of a standard MDP framework to make decisions on economic problems in online mode. In the Ph.D. Thesis the advanced decision making method based on Markov Decision Process is under central consideration. The maximum-likelihood technique, which is a statistical method for estimating the unknown parameter, is used to construct the probabilistic model in framework of the apparatus. Data mining techniques including tools for data normalization, clustering and classification are employed. The methods of computational intelligence: Reinforcement Learning and Artificial Neural Networks are used. The agent-oriented architecture is used for the software systems under development. The practical application of the intellectual agent system based on Markov Decision Process was demonstrated in the task of Dynamic Pricing Policy. The testing data are the actual sales records of the real manufacturing and trade management system 1С:Enterprise v7. In the course of experiments based on real data on sales, the numerical evaluations of MDP model closeness to the factual evolution of the processes under investigation, as well as the evaluations of the system functioning on testing data set are obtained. This paper presents a series of experiments of several sub-systems (Artificial Neural Networks, Markov Decision Process) with toy problems. Besides, a series of experiments by the example of Dynamic Pricing Policies task in order to numerically evaluate the effectiveness of the improved MDP framework was carried out. The doctoral thesis is written in the Latvian language. It includes introduction, 6 chapters, conclusion, a list of references and 4 appendixes. The doctoral thesis contains 138 pages and is illustrated with 70 figures and 15 tables. The list of references includes 83 titles.
Atsauce Čižovs, Jurijs. Dinamiskās sistēmas vadāmā Markova lēmumu modeļa uzbūve un izpēte ar datu ieguves metodēm. Promocijas darbs. Rīga: [RTU], 2012. 137 lpp.
Kopsavilkums Kopsavilkums
ID 12643