| dc.contributor.author | Середюк, Г. В. | uk |
| dc.contributor.author | Гармаш, В. В. | uk |
| dc.contributor.author | Seredyuk, H. A. | en |
| dc.contributor.author | Garmash, V. V. | en |
| dc.date.accessioned | 2025-08-13T09:22:05Z | |
| dc.date.available | 2025-08-13T09:22:05Z | |
| dc.date.issued | 2025 | |
| dc.identifier.citation | Середюк Г. В., Гармаш В. В. Методи квантизації та компресії для оптимізації пам'яті в нейронних мережах для задач комп'ютерного зору // Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. URI: https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/24713. | uk |
| dc.identifier.isbn | 978-617-8163-57-0 | |
| dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/47694 | |
| dc.description.abstract | This paper investigates memory optimization methods for deep neural networks in computer vision tasks.
The approaches to quantization, pruning, and model compression are considered, which significantly reduce
memory requirements without substantial accuracy loss. The effectiveness of these methods is analyzed when
applied to image recognition and classification tasks. It has been established that a combined approach that
includes pruning, quantization, and Huffman coding can reduce model size by 35-49 times with accuracy
degradation of less than 1%. A comparative analysis of Post-Training Quantization (PTQ) and
Quantization-Aware Training (QAT) algorithms for the most common neural network architectures is
presented. | en |
| dc.description.abstract | У роботі досліджуються методи оптимізації пам'яті при використанні глибоких нейронних
мереж для задач комп'ютерного зору. Розглянуто підходи до квантизації, обрізання (pruning) та
компресії моделей, що дозволяють суттєво зменшити вимоги до пам'яті без значної втрати
точності. Проаналізовано ефективність цих методів при застосуванні до задач розпізнавання та
класифікації зображень. Встановлено, що комбінований підхід, який включає обрізання, квантизацію
та кодування Гаффмана, здатен зменшити розмір моделі до 35-49 разів при зниженні точності
менше ніж на 1%. Представлено порівняльний аналіз алгоритмів квантизації після навчання (PTQ)
та квантизації з урахуванням навчання (QAT) для найпоширеніших архітектур нейронних мереж. | uk |
| dc.language.iso | uk_UA | uk_UA |
| dc.publisher | ВНТУ | uk |
| dc.relation.ispartof | Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. | uk |
| dc.relation.uri | https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/24713 | |
| dc.subject | глибокі нейронні мережі | uk |
| dc.subject | квантизація | uk |
| dc.subject | обрізання моделей | uk |
| dc.subject | компресія | uk |
| dc.subject | комп'ютерний зір | uk |
| dc.subject | оптимізація пам'яті | uk |
| dc.subject | deep neural networks | en |
| dc.subject | quantization | en |
| dc.subject | model pruning | en |
| dc.subject | compression | en |
| dc.subject | computer vision | en |
| dc.subject | memory optimization | en |
| dc.title | Методи квантизації та компресії для оптимізації пам'яті в нейронних мережах для задач комп'ютерного зору | en |
| dc.type | Thesis | |
| dc.identifier.udc | 004.9 | |
| dc.relation.references | Han, S. Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding
/ S. Han, H. Mao, W. J. Dally // arXiv preprint. — 2015. — No. arXiv:1510.00149. — 14 p. | en |
| dc.relation.references | Jacob, B. Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference / B. Jacob, S.
Kligys, B. Chen, M. Zhu, M. Tang, A. Howard, H. Adam, D. Kalenichenko // Proceedings of the IEEE Conference on
Computer Vision and Pattern Recognition (CVPR). — 2018. — Pp. 2704–2713. | en |
| dc.relation.references | Cheng, Y. A Survey of Model Compression and Acceleration for Deep Neural Networks / Y. Cheng, D. Wang, P. Zhou, T.
Zhang // arXiv preprint. — 2018. — No. arXiv:1710.09282. — 23 p. | en |
| dc.relation.references | Sze, V. Efficient Processing of Deep Neural Networks: A Tutorial and Survey / V. Sze, Y.-H. Chen, T.-J. Yang, J. S. Emer
// Proceedings of the IEEE. — 2017. — Vol. 105, Iss. 12. — Pp. 2295–2329. | en |
| dc.relation.references | Goodfellow, I. Deep Learning / I. Goodfellow, Y. Bengio, A. Courville. — Cambridge : MIT Press, 2016. — 800 p. | en |