| dc.contributor.author | Прочухан, Д. В. | uk |
| dc.contributor.author | Prochukhan, D. V. | en |
| dc.date.accessioned | 2026-04-14T08:21:00Z | |
| dc.date.available | 2026-04-14T08:21:00Z | |
| dc.date.issued | 2025 | |
| dc.identifier.citation | Прочухан Д. В. Клас-орієнтований метод аугментації фундус-зображень // Вісник Вінницького політехнічного інституту. 2025. № 5. С. 140-145. URI: https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3347. | uk |
| dc.identifier.issn | 1997-9274 | |
| dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/51135 | |
| dc.description.abstract | Innovative class-oriented method of fundus images augmentation is proposed. The advantages of this method compared to the standard method are given. The augmentation strategy for images with the existing signs of glaucoma, cataracts, diabetic retinopathy and a healthy eye is substantiated and ed according to the specifics of each class. Augmentation approximates real clinical variation. Resistance to precisely those variations that are characteristic of a specific disease has been improved. Sensitivity and specificity specifically to pathologies in medical images is increased. A neural network model was developed using the class-oriented method. GlobalAveragePooling layers, Dropout with rate 0.5, Dense with 1024 neurons, l2-regularization with a value of 0.001 and categorical crossentropy loss function, Dense classification layer with 4 neurons and softmax activation function were added to the EfficientNetB3 core network by learning methods transfer. Half of the layers of the base model were frozen. The model was compiled using an Adam compiler with an initial learning rate of 0.0001 and a cost feature of categorical crossentropy. In pre-processing, image sizes resized to 224 by 224. The normalization of images automatically occurred during the generation of data for training. The following callback functions were used to adjust the model learning: ModelCheckpoint — to save the best model, EarlyStopping — with to stop in the absence of improvement of the val accuracy metric during 15 eras, ReduceLROnPlateau — to reduce the learning rate by 3 times when stagnating. As a result of the training, high indicators of metrics were obtained. The trained model was compressed by quantification for later use on mobile and disabled devices. The proposed approach makes it possible to increase the overall accuracy and robustness of the neural network, to overcome the limitations of the traditional method.Запропоновано інноваційний клас-орієнтований метод аугментації фундус-зображень. Описано переваги цього методу у порівнянні з відомими. Обґрунтовано та підібрано стратегію аугментації для зображень з наявними ознаками глаукоми, катаракти, діабетичної ретинопатії та здорового ока відповідно до специфіки кожного класу. Аугментації наближені до реальних клінічних варіацій. Покращено стійкість саме до тих варіацій, які характерні для конкретної хвороби. Підвищено чутливість і специфічність саме до патологій на медичних зображеннях. Розроблено нейромережеву модель з використанням клас-орієнтованого методу. До базової мережі EfficientNetB3 методами трансферного навчання додано шари GlobalAveragePooling, Dropout з rate 0,5, Dense з 1024 нейронами, l2-регуляризацією зі значенням 0,001 та функцією активації relu, класифікаційний шар Dense з 4 нейронами та функцією активації softmax. Половину шарів базової моделі заморожено. Модель компілювалася за допомогою компілятора Adam з початковим learning rate 0,0001 та функцією втрат categorical crossentropy. Під час попередньої обробки розміри зображень зменшувалися до 224×224. Нормалізація зображень автоматично відбувалася під час генерації даних для навчання. Для коригування навчання моделі використовувалися такі функції зворотного виклику: ModelCheckpoint — для збереження найкращої моделі, EarlyStopping — для зупинки за відсутності покращення метрики val accuracy протягом 15 епох, ReduceLROnPlateau — для зменшення learning rate у 3 рази за стагнації. В результаті навчання отримано високі показники метрик. Навчену модель стиснено шляхом квантифікації для подальшого використання на мобільних пристроях та на пристроях з обмеженими можливостями. Запропонований підхід дозволяє підвищити загальну точність, робастність нейронної мережі, подолати обмеження традиційного методу. | en |
| dc.description.abstract | Запропоновано інноваційний клас-орієнтований метод аугментації фундус-зображень. Описано переваги цього методу у порівнянні з відомими. Обґрунтовано та підібрано стратегію аугментації для зображень з наявними ознаками глаукоми, катаракти, діабетичної ретинопатії та здорового ока відповідно до специфіки кожного класу. Аугментації наближені до реальних клінічних варіацій. Покращено стійкість саме до тих варіацій, які характерні для конкретної хвороби. Підвищено чутливість і специфічність саме до патологій на медичних зображеннях. Розроблено нейромережеву модель з використанням клас-орієнтованого методу. До базової мережі EfficientNetB3 методами трансферного навчання додано шари GlobalAveragePooling, Dropout з rate 0,5, Dense з 1024 нейронами, l2-регуляризацією зі значенням 0,001 та функцією активації relu, класифікаційний шар Dense з 4 нейронами та функцією активації softmax. Половину шарів базової моделі заморожено. Модель компілювалася за допомогою компілятора Adam з початковим learning rate 0,0001 та функцією втрат categorical crossentropy. Під час попередньої обробки розміри зображень зменшувалися до 224×224. Нормалізація зображень автоматично відбувалася під час генерації даних для навчання. Для коригування навчання моделі використовувалися такі функції зворотного виклику: ModelCheckpoint — для збереження найкращої моделі, EarlyStopping — для зупинки за відсутності покращення метрики val accuracy протягом 15 епох, ReduceLROnPlateau — для зменшення learning rate у 3 рази за стагнації. В результаті навчання отримано високі показники метрик. Навчену модель стиснено шляхом квантифікації для подальшого використання на мобільних пристроях та на пристроях з обмеженими можливостями. Запропонований підхід дозволяє підвищити загальну точність, робастність нейронної мережі, подолати обмеження традиційного методу. | uk |
| dc.language.iso | uk_UA | uk_UA |
| dc.publisher | ВНТУ | uk |
| dc.relation.ispartof | Вісник Вінницького політехнічного інституту. № 5 : 140-145. | uk |
| dc.relation.uri | https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3347 | |
| dc.subject | машинне навчання | uk |
| dc.subject | аугментація | uk |
| dc.subject | нейронні мережі | uk |
| dc.subject | медичні зображення | uk |
| dc.subject | machine learning | en |
| dc.subject | augmentation | en |
| dc.subject | neural networks | en |
| dc.subject | medical images | en |
| dc.title | Клас-орієнтований метод аугментації фундус-зображень | uk |
| dc.title.alternative | Class-oriented Method of Fundus Images Augmentation | en |
| dc.type | Article, professional native edition | |
| dc.type | Article | |
| dc.identifier.udc | 004.032.26(045) | |
| dc.relation.references | Z. Wang, “A comprehensive survey on data augmentation,” arXiv preprint, arXiv:2401.12345, 2024. | en |
| dc.relation.references | M. Xu, “A comprehensive survey of image augmentation,” Information Fusion, vol. 97, pp. 1-23, 2023. | en |
| dc.relation.references | M. Buda, A. Maki, and M. A. Mazurowski, “A systematic study of the class imbalance problem in convolutional neural
networks,” Neural Networks, vol. 106, pp. 249-259, 2018. | en |
| dc.relation.references | C. Shorten, and T. Khoshgoftaar, “A survey on image data augmentation for deep learning,” Journal of Big Data, vol. 6,
no. 60, 2019. | en |
| dc.relation.references | G. Ghiasi, Y. Cui, and A. Srinivas, “Simple copy-paste is a strong data augmentation method for instance segmentation,”
in Proc. IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR), 2021, pp. 2918-2928, | en |
| dc.relation.references | Z. Gong, L. Duan, F. Xiao, and Y. Wang, “MSAug: Multi-Strategy Augmentation for rare classes in semantic segmentation of remote sensing images,” Displays, vol. 84, Art.102779, 2024. | en |
| dc.relation.references | M. Frid-Adar, et al., “GAN-based synthetic medical image augmentation for increased CNN performance in liver lesion
classification,” Neurocomputing, vol. 321, pp. 321-331, 2018 | en |
| dc.relation.references | . Chen, et al., “Conditional GAN-based data augmentation for medical imaging,” IEEE Transactions on Medical Imaging, vol. 42, no. 5, pp. 1123-1134, 2023. | en |
| dc.relation.references | L. Zhang, et al., “Evaluation metrics for synthetic data in computer vision,” Pattern Analysis and Applications, vol. 27,
no. 3, pp. 455-470, 2024. | en |
| dc.relation.references | G. Hu, et al., “Semantics-preserved graph siamese networks with class-oriented feature vector generation,” Neurocomputing, vol. 527, pp. 123-135, 2023. | en |
| dc.relation.references | T. Li, et al., “Balanced contrastive learning with class-aware augmentation,” Pattern Recognition, vol. 142, Art. 109702,
2025. | en |
| dc.relation.references | L. Perez, and J. Wang, “The effectiveness of data augmentation in image classification using deep learning,” ArXiv preprint, ArXiv:1712.04621, 2017. | en |
| dc.relation.references | D. V. Prochukhan, “Features of the modification of the inceptionresnetv2 architecture and the creation of a diagnostic system for determining the degree of damage to retinal vessels,” Computer systems and information technologies, no. 1, pp. 27-32,
2024, https://doi.org/10.31891/csit-2024-1-3 . | en |
| dc.relation.references | Д. В. Прочухан. «Особливості конкатенації згорткових нейронних мереж для скринінгу діабетичної ретинопатії,» Системи обробки інформації, № 1 (176), с. 89-94, 2024, https://doi.org/10.30748/soi.2024.176.11 . | uk |
| dc.identifier.doi | https://doi.org/10.31649/1997-9266-2025-182-5-140-145 | |