Показати скорочену інформацію

dc.contributor.authorРодінков, Ю. М.uk
dc.contributor.authorСавицький, А. Ю.uk
dc.contributor.authorRodinkov, Yu. M.en
dc.contributor.authorSavitsky, A. Yu.en
dc.date.accessioned2026-04-14T07:44:53Z
dc.date.available2026-04-14T07:44:53Z
dc.date.issued2025
dc.identifier.citationРодінков Ю. М., Савицький А. Ю. Інтеграція адаптивних моделей навчання з підкріпленням у керування аграрними дронами // Вісник Вінницького політехнічного інституту. 2025. № 5. С. 187-191. URI: https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3353.uk
dc.identifier.issn1997-9274
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/51129
dc.description.abstractЗапропоновано інтегрований підхід до реалізації адаптивного оброблення сільськогосподарських культур за допомогою безпілотних літальних апаратів (БПЛА), що базується на методах навчання з підкріпленням (Reinforcement Learning, RL), зокрема на алгоритмі Proximal Policy Optimization (PPO). Основнууваг уприділленопрактичному впровадженню математичних моделей у симуляційні та onboard-середовища керування дронами. Показано, як моделі похибки покриття, втрат препарату та стохастичного вітру можуть бути формалізовані у reward-функцію та враховані під час симуля-ційного навчання агента. Алгоритм PPO реалізовано у середовищі AirSim з використанням бібліоте-ки Stable-Baselines3. Агента навчено на основі множини змінних вхідного стану, таких як положення, вітровий вплив, густота посівів та карта покриття. Навчання проводилося поетапно — від умов зі слабким вітром до поривчастого, з подальшою адаптацією політики для реального onboard-викона-ння. Стратегію експортовано у форматі ONNX та оптимізовано під NVIDIA Jetson Nanoчерез Ten-sorRT, що дозволило використовувати агент у реальному часі без перевантаження системи. Про-грамну реалізацію протестовано як у симуляційних середовищах (AirSim, Gazebo), так і на фізичній платформі PX4 SITL. Проведено серію експериментів, які включали моделювання обприскування за умов змінного вітру (2...14 м/с) та порівняння з класичними алгоритмами керування. Результати засвідчили зменшення середньої похибки покриття до 30% та зниження втрат препарату до 28% у порівнянні з фіксованими стратегіями. Особливістю підходу є його гнучкість і практичність: вперше представлено повний цикл розроблення — від формалізації математичної моделі до її навчання, реа-лізації в onboard-системі та валідації в реальних умовах. Такожпо дано скріншоти навчального проце-су, симуляційного середовища, кривих збіжності помилки та GUI Gazebo, що забезпечують прозо-рість методології та можуть бути використані як еталон для інших дослідників. Робота сприяє подальшому розвитку автономних рішень у точному землеробстві та закладає основу для застосування самонавчальних моделей у польових умовах.uk
dc.description.abstractThis paper presents an integrated approach to adaptive agricultural spraying using unmanned aerial vehicles (UAVs), leveraging reinforcement learning (RL) techniques, particularly the Proximal Policy Optimization (PPO) algorithm. The study focuses on the practical implementation of mathematical models in simulation and onboard control systems. It demonstrates how spray coverage error, chemical loss, and stochastic wind models can be formalized into a reward function and incorporated during RL agent training. The PPO algorithm was implemented using the Stable-Baselines3 library in the AirSim simulator. The agent was trained based on a complex input state vector, including position, wind velocity, crop density, and coverage maps. The training was carried out in stages, starting with low wind conditions and gradually increasing to gusty wind scenarios. The resulting policy was exported in ONNX format and optimized for real-time execution via TensorRT on an NVIDIA Jetson Nano platform, enabling efficient inference onboard the drone. The developed solution was tested in both simulation environments (AirSim, Gazebo) and a physical PX4 SITL platform. A series of experiments were conducted with simulated wind intensities ranging 2 to 14 m/s. The proposed RL-based adaptive spraying strategy was compared with traditional fixed-parameter control methods. Results showed a reduction in average coverage error by up to 30 % and a decrease in chemical losses by 28 %, confirming the agent’s ability to adapt in real time. A key feature of this approach is its end-to-end practicality: for the first time, a complete development pipeline is presented — mathematical modeling and training to onboard deployment and real-world validation. The article includes screenshots of the training process, simulated environments, error convergence curves, and the Gazebo GUI, offering transparency and reproducibility for future researchers. This work contributes to the advancement of autonomous precision agriculture systems and lays the groundwork for deploying self-learning UAVs in dynamic field environments.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 5 : 187-191.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3353
dc.subjectбезпілотні літальні апаратиuk
dc.subjectобприскуванняuk
dc.subjectсимуляціяuk
dc.subjectадаптивне керуванняuk
dc.subjectвтрати препаратуuk
dc.subjectunmanned aerial vehiclesen
dc.subjectagricultural sprayingen
dc.subjectsimulationen
dc.subjectadaptive controlen
dc.subjectproduct lossen
dc.titleІнтеграція адаптивних моделей навчання з підкріпленням у керування аграрними дронамиuk
dc.title.alternativeIntegration of Adaptive Reinforcement Learning Models into the Control of Agricultural Dronesen
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc629.07:004.8
dc.relation.referencesA. Pretto, A. Bevilacqua, E. Menegatti, and E. Pagello “Cooperative robotics and autonomous vehicles in precision agriculture”, MDPI Journal Robotics , no. 8 (4), 2019. https://doi.org/10.3390/robotics8040096 .en
dc.relation.referencesR. S. Sutton, and A. G. Barto, “Reinforcement Learning: An Introduction”, 2nd ed., MIT Press, 2018, 552 p.en
dc.relation.referencesC. Zhang, and J. M. Kovacs, “The application of small unmanned aerial systems for precision agriculture: a review,” International Journal on Advances in Precision Agriculture, no. 13, pp. 693-712, 2012. https://doi.org/10.1007/s11119-012-9274-5 .en
dc.relation.referencesJ. Hu, T. Wang, J. C. Yang, Y. B. Lan, S. L. Lv, and Y. L. Zhang, “WSN-assisted UAV trajectory adjustment for pesticide drift control,” Sensors , MDPI Journal, no. 20 (19), pp. 5473, 2020. https://doi.org/10.3390/s20195473 .en
dc.relation.referencesZ. Y. Hao, X. Z. Li, C. Meng, W. Yang, and M. Z. Liб “Adaptive spraying decision system for UAV based on RL,” International Journal of Agricultural and Biological Engineering, no. 15 (4), pp. 16-26, 2022. https://doi.org/10.25165/j.ijabe.20221504.6929 .en
dc.relation.referencesC. Kang, B. Park, and J. Choiб “Scheduling PID attitude and position control for quadrotor UAVs under external disturbances,” Sensors, MDPI Journal, no. 22(1), 150, 2022. https:/doi.org/10.3390/s22010150 .en
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2025-182-5-187-191


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію