Показати скорочену інформацію

dc.contributor.authorСередюк, Г. В.uk
dc.contributor.authorГармаш, В. В.uk
dc.contributor.authorSeredyuk, H. A.en
dc.contributor.authorGarmash, V. V.en
dc.date.accessioned2025-08-13T09:22:05Z
dc.date.available2025-08-13T09:22:05Z
dc.date.issued2025
dc.identifier.citationСередюк Г. В., Гармаш В. В. Методи квантизації та компресії для оптимізації пам'яті в нейронних мережах для задач комп'ютерного зору // Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. URI: https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/24713.uk
dc.identifier.isbn978-617-8163-57-0
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/47694
dc.description.abstractThis paper investigates memory optimization methods for deep neural networks in computer vision tasks. The approaches to quantization, pruning, and model compression are considered, which significantly reduce memory requirements without substantial accuracy loss. The effectiveness of these methods is analyzed when applied to image recognition and classification tasks. It has been established that a combined approach that includes pruning, quantization, and Huffman coding can reduce model size by 35-49 times with accuracy degradation of less than 1%. A comparative analysis of Post-Training Quantization (PTQ) and Quantization-Aware Training (QAT) algorithms for the most common neural network architectures is presented.en
dc.description.abstractУ роботі досліджуються методи оптимізації пам'яті при використанні глибоких нейронних мереж для задач комп'ютерного зору. Розглянуто підходи до квантизації, обрізання (pruning) та компресії моделей, що дозволяють суттєво зменшити вимоги до пам'яті без значної втрати точності. Проаналізовано ефективність цих методів при застосуванні до задач розпізнавання та класифікації зображень. Встановлено, що комбінований підхід, який включає обрізання, квантизацію та кодування Гаффмана, здатен зменшити розмір моделі до 35-49 разів при зниженні точності менше ніж на 1%. Представлено порівняльний аналіз алгоритмів квантизації після навчання (PTQ) та квантизації з урахуванням навчання (QAT) для найпоширеніших архітектур нейронних мереж.uk
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/24713
dc.subjectглибокі нейронні мережіuk
dc.subjectквантизаціяuk
dc.subjectобрізання моделейuk
dc.subjectкомпресіяuk
dc.subjectкомп'ютерний зірuk
dc.subjectоптимізація пам'ятіuk
dc.subjectdeep neural networksen
dc.subjectquantizationen
dc.subjectmodel pruningen
dc.subjectcompressionen
dc.subjectcomputer visionen
dc.subjectmemory optimizationen
dc.titleМетоди квантизації та компресії для оптимізації пам'яті в нейронних мережах для задач комп'ютерного зоруen
dc.typeThesis
dc.identifier.udc004.9
dc.relation.referencesHan, S. Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding / S. Han, H. Mao, W. J. Dally // arXiv preprint. — 2015. — No. arXiv:1510.00149. — 14 p.en
dc.relation.referencesJacob, B. Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference / B. Jacob, S. Kligys, B. Chen, M. Zhu, M. Tang, A. Howard, H. Adam, D. Kalenichenko // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). — 2018. — Pp. 2704–2713.en
dc.relation.referencesCheng, Y. A Survey of Model Compression and Acceleration for Deep Neural Networks / Y. Cheng, D. Wang, P. Zhou, T. Zhang // arXiv preprint. — 2018. — No. arXiv:1710.09282. — 23 p.en
dc.relation.referencesSze, V. Efficient Processing of Deep Neural Networks: A Tutorial and Survey / V. Sze, Y.-H. Chen, T.-J. Yang, J. S. Emer // Proceedings of the IEEE. — 2017. — Vol. 105, Iss. 12. — Pp. 2295–2329.en
dc.relation.referencesGoodfellow, I. Deep Learning / I. Goodfellow, Y. Bengio, A. Courville. — Cambridge : MIT Press, 2016. — 800 p.en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію