Показати скорочену інформацію

dc.contributor.authorПівошенко, В. В.uk
dc.contributor.authorКулик, М. С.uk
dc.contributor.authorІванов, Ю. Ю.uk
dc.contributor.authorВасюра, А. С.uk
dc.contributor.authorPivoshenko, V. V.en
dc.contributor.authorKulyk, M. S.en
dc.contributor.authorIvanov, Yu. Yu.en
dc.contributor.authorVasiura, А. S.en
dc.contributor.authorПивошенко, В. В.ru
dc.contributor.authorКулик, М. С.ru
dc.contributor.authorИванов, Ю. Ю.ru
dc.contributor.authorВасюра, А. С.ru
dc.date.accessioned2020-12-16T12:23:49Z
dc.date.available2020-12-16T12:23:49Z
dc.date.issued2019
dc.identifier.citationАналіз та експериментальне дослідження методу безмодельного навчання з підкріпленням [Текст] / В. В. Півошенко, М. С. Кулик, Ю. Ю. Іванов, А. С. Васюра // Вісник Вінницького політехнічного інституту. – 2019. – № 3. – С. 40-49.uk
dc.identifier.issn1997–9266
dc.identifier.issn1997–9274
dc.identifier.urihttp://ir.lib.vntu.edu.ua//handle/123456789/31050
dc.description.abstractРозглянуто сучасний метод машинного навчання, який має назву навчання з підкріпленням. У задачах, які розв’язуються на основі взаємодії, найчастіше непрактично намагатися отримувати приклади необхідної поведінки інтелектуального програмного агента, які були б одночасно коректними та доречними для всіх ситуацій, оскільки наявні умови невизначеності, що виникають через неповноту інформації про навколишнє середовище та можливі дії інших ботів або людей. Тому програмний агент повинен навчатися на основі власного досвіду. Важливою перевагою навчання з підкріпленням є можливість навчання бота «з нуля» за рахунок збалансованого поєднання (пошук компромісу) режимів «дослідження» — «застосування» та вивчення стратегій, які дозволяють жертвувати малим на певному етапі заради отримання більшої вигоди в подальшому. Дослідження в області навчання з підкріпленням можна вважати частиною загального процесу, який розвивається в останні роки. Він складається зі взаємодії штучного інтелекту та інженерних дисциплін, тому саме у навчанні з підкріпленням розвиваються ідеї, взяті з теорії оптимального управління, стохастичної оптимізації та апроксимації, прагнучи реалізації загальніших і амбітних цілей штучного інтелекту. Представлено математичний апарат навчання з підкріпленням із залученням методу безмодельного Q-навчання, показано практичні аспекти його застосування, а також розроблено ефективну стратегію навчання бота у штучному середовищі (комп’ютерній відеогрі). В ролі спостережуваних змінних об’єкта виступає інформація, яку використовує агент, а прихованими змінними є довгострокові оцінки отриманої ним вигоди. Залежно від поточного стану середовища і дій бота розраховується функція вигоди, яку отримає агент у наступний момент часу. З використанням розробленого програмного забезпечення виконано експериментальні дослідження розглянутого методу. У роботі отримано оптимальні параметри налаштування, криві та час навчання бота. Результати дослідження можуть бути корисними для комп’ютерних систем різного функціонального призначення, їх можна застосовувати у моделюванні та проектуванні, в системах автоматичного керування та прийняття рішень, робототехніці, на фондових ринках тощо.uk
dc.description.abstractIn this article there has been considered a modern method of machine learning, which is called reinforcement learning. In tasks, that are solved based on interaction, is often impractical to try to get the desired behavior examples of an intellectual software agent, that would be both correct and appropriate for all situations, since the uncertainty conditions exist, arising from incomplete information about an environment and possible actions of other bots or humans. Therefore, the software agent should be trained on the basis of its own experience. An important advantage of the reinforcement learning is the possibility of learning a bot «from scratch» by the balanced combination (search of the compromise) of the «exploration» «exploitation» modes and learning of the strategies, which allow to sacrifice some scores at this stage for the sake of greater benefit in the future.Researches in the field of the reinforcement learning can be considered as a part of the overall process, that developed over a last few years. It consists of an interaction of an artificial intelligence and other engineering disciplines that is why reinforcement learning develops ideas drawn from the optimal control theory, stochastic optimization and approximation, following common and ambitious goals of the artificial intelligence. In this work there has been presented the mathematical apparatus of reinforcement learning with the usage of the model-free Q-learning method, practical aspects of its application have been shown, also an effective strategy for the bot learning in an artificial environment (computer video game) has been developed. The role of the observed object variables is accepted by the information used by the agent, and the hidden variables are long-term estimates of the benefit it gainsDepending on the current status of the environment and bot activities is calculated the benefit function, which is received by the agent at the next time moment. With the usage of the developed software, experimental researches of the considered method have been performed. The optimal setting parameters, curves and time learning of the bot have been obtained.The research results may be useful for computer systems of various functional purposes; they can be used in modeling and design, in automatic control and decision making systems, in robotics, in stock markets, etc.en
dc.description.abstractРассмотрен современный метод машинного обучения, названый «обучение с подкреплением». В задачах, ко- торые решаются на основе взаимодействия, чаще всего непрактично пытаться получать примеры необходи- мого поведения интеллектуального программного агента, которые были бы одновременно корректными и уме- стными для всех ситуаций, поскольку существуют условия неопределенности, возникающие из-за неполноты информации об окружающей среде и возможных действиях других ботов или людей. Поэтому программный агент должен учиться на основе собственного опыта. Важным преимуществом обучения с подкреплением явля-ется возможность обучения бота «с нуля» за счет сбалансированного сочетания (поиск компромисса) режимов «исследование» — «применение» и изучения стратегий, которые позволяют на определенном этапе жертво-вать малым ради получения большей выгоды в дальнейшем. Исследования в области обучения с подкреплением можно считать частью общего процесса, который развивается в последние годы. Он состоит из взаимодейст-вия искусственного интеллекта и других инженерных дисциплин, поэтому именно в обучении с подкреплением развиваются идеи, взятые из теории оптимального управления, стохастической оптимизации и аппроксима-ции, стремясь к реализации более общих и амбициозных целей искусственного интеллекта. Представлен математический аппарат обучения с подкреплением с применением метода безмодельного Q-обучения, показаны практические аспекты его применения, а также разработана эффективная стратегия обучения бота в искусственной среде (компьютерной видеоигре). В качестве наблюдаемых переменных объекта выступает информация, которую использует агент, а скрытыми переменными являются долгосрочные оценки полученной им выгоды. В зависимости от текущего состояния среды и действий бота рассчитывается функ-ция выгоды, которую получит агент в следующий момент времени. С использованием разработанного про-граммного обеспечения выполнены экспериментальные исследования рассматриваемого метода. В работе получены оптимальные параметры настройки, кривые и время обучения бота. Результаты исследования могут быть полезными для компьютерных систем разного функционального назначения, их можно применять в моде-лировании и проектировании, в системах автоматического управления и принятия решений, робототехнике, на фондовых рынках.ru
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 3 : 40-49.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/2361
dc.subjectштучний інтелектuk
dc.subjectмашинне навчанняuk
dc.subjectнавчання з підкріпленнямuk
dc.subjectQ-навчанняuk
dc.subjectстратегія навчанняuk
dc.subjectінтелектуальний програмний агентuk
dc.subjectботuk
dc.subjectоптимальні параметриuk
dc.subjectкриві навчанняuk
dc.subjectекспериментальні дослідженняuk
dc.subjectartificial intelligenceen
dc.subjectmachine learningen
dc.subjectreinforcement learningen
dc.subjectQ-learningen
dc.subjectlearning strategyen
dc.subjectintellectual software agenten
dc.subjectboten
dc.subjectoptimal parametersen
dc.subjectlearning curvesen
dc.subjectexperimental researchesen
dc.subjectискусственный интеллектru
dc.subjectмашинное обучениеru
dc.subjectобучение с подкреплениемru
dc.subjectQ-обучениеru
dc.subjectстратегия обученияru
dc.subjectинтеллектуальный программный агентru
dc.subjectботru
dc.subjectоптимальные параметрыru
dc.subjectкривые обученияru
dc.subjectэкспериментальные исследованияru
dc.titleАналіз та експериментальне дослідження методу безмодельного навчання з підкріпленнямuk
dc.title.alternativeAnalysis and Experimental Research of Model-Free Reinforcement Learning Methoden
dc.title.alternativeАнализ и экспериментальное исследование метода безмодельного обучения с подкреплениемru
dc.typeArticle
dc.identifier.udc004.89 + 004.942
dc.relation.referencesO. Hernández-Lerma, J. Hennet, and J. Lasserre, “Average Сost Markov Decision Processes: Optimality conditions,” Journal of Mathematical Analysis and Applications, vol. 158, no. 2, pp. 396-406, 1991.en
dc.relation.referencesR. Bellman, “A Markovian Decision Process,” Indiana University Mathematics Journal, vol. 6, no. 4, pp. 679-684, 1957.en
dc.relation.referencesL. Busoniu, R. Babuska, B. Schutter, and D. Ernst, “Reinforcement Learning and Dynamic Programming Using Function Approximators,” Automation and Control Engineering, pp. 55-88, 2010.en
dc.relation.referencesА. С. Васюра, Т. Б. Мартинюк, та Л. М. Куперштейн, Методи та засоби нейроподібної обробки даних для систем керування. Вінниця, Україна: Універсум-Вінниця, 2008.uk
dc.relation.referencesC. J. C. H. Watkins, and P. Dayan, Reinforcement Learning, Technical Note, 1992, pp. 55-68.en
dc.relation.referencesF. Chollet, Deep learning with Python. Shelter Island. NY: Manning Publications Co., 2018, pp. 27-38.en
dc.relation.referencesJ. Gläscher, N. Daw, P. Dayan, and J. P. O’doherty, “States versus Rewards: Dissociable Neural Prediction Error Signals Underlying Model-Based and Model-Free Reinforcement Learning,” Neuron, vol. 66, no. 4, pp. 585-595, 2010.en
dc.relation.referencesR. S. Sutton, and A. G. Barto, Reinforcement learning: an introduction. Cambridge: The MIT Press, 2015, pp. 143-160.en
dc.relation.referencesТ. М. Боровська, А. С. Васюра, та В. А. Северілов, Моделювання та оптимізація систем автоматичного управ- ління. Вінниця, Україна: ВНТУ, 2009.uk
dc.relation.referencesC. Jin, Z. Allen-Zhu, S. Bubeck, and M. Jordan, "Is Q-learning Provably Efficient?", arXiv.org, 2018. [Electronic resource]. Available: https://arxiv.org/pdf/1807.03765.pdf . Accessed: Jul. 10, 2018.en
dc.relation.referencesJ. Dornheim, N. Link, and P. Gumbsch, “Model-Free Adaptive Optimal Control of Sequential Manufacturing Processes Using Reinforcement Learning,” arXiv.org, 2019. [Electronic resource]. Available: https://arxiv.org/abs/1809.06646v1 . Accessed: Jan. 07. 2019.en
dc.relation.referencesW. Haskell, and W. Huang, "Stochastic Approximation for Risk-Aware Markov Decision Processes", Arxiv.org, 2018. [Electronic resource]. Available: https://arxiv.org/pdf/1805.04238.pdf. Accessed: May. 17, 2018.en
dc.relation.referencesR. Bellman, “Dynamic programming and stochastic control processes,” Information and Control, vol. 1, no. 3, pp. 228-239, 1958.en
dc.relation.referencesC. J. C. H. Watkins, Learning from delayed rewards. University of Cambridge, 1989, pp. 55-68.en
dc.relation.referencesL. P. Kaelbling, M. L. Littman, and A. W. Moore, “An Introduction to Reinforcement Learning,” The Biology and Technology of Intelligent Autonomous Agents, 1995, pp. 90–127.en
dc.relation.referencesM. Rahman and H. Rashid, “Implementation of Q Learning and Deep Q Network for Controlling a Self-Balancing Robot Model,” ArXiv.org, 2018. [Electronic resource]. Available: https://arxiv.org/pdf/1807.08272.pdf . Accessed: Jul. 22, 2018.en
dc.relation.referencesC. J. C. H. Watkins and P. Dayan, “Q-learning,” Machine Learning, vol. 8, no. 3-4, pp. 279-292, 1992.en
dc.relation.referencesE. Even-Dar and Y. Mansour, “Learning Rates for Q-Learning,” Lecture Notes in Computer Science Computational Learning Theory, 2001, pp. 589–604.en
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2019-144-3-40-49


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію