Показати скорочену інформацію

dc.contributor.authorПрочухан, Д. В.uk
dc.contributor.authorProchukhan, D. V.en
dc.date.accessioned2026-04-14T08:21:00Z
dc.date.available2026-04-14T08:21:00Z
dc.date.issued2025
dc.identifier.citationПрочухан Д. В. Клас-орієнтований метод аугментації фундус-зображень // Вісник Вінницького політехнічного інституту. 2025. № 5. С. 140-145. URI: https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3347.uk
dc.identifier.issn1997-9274
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/51135
dc.description.abstractInnovative class-oriented method of fundus images augmentation is proposed. The advantages of this method compared to the standard method are given. The augmentation strategy for images with the existing signs of glaucoma, cataracts, diabetic retinopathy and a healthy eye is substantiated and ed according to the specifics of each class. Augmentation approximates real clinical variation. Resistance to precisely those variations that are characteristic of a specific disease has been improved. Sensitivity and specificity specifically to pathologies in medical images is increased. A neural network model was developed using the class-oriented method. GlobalAveragePooling layers, Dropout with rate 0.5, Dense with 1024 neurons, l2-regularization with a value of 0.001 and categorical crossentropy loss function, Dense classification layer with 4 neurons and softmax activation function were added to the EfficientNetB3 core network by learning methods transfer. Half of the layers of the base model were frozen. The model was compiled using an Adam compiler with an initial learning rate of 0.0001 and a cost feature of categorical crossentropy. In pre-processing, image sizes resized to 224 by 224. The normalization of images automatically occurred during the generation of data for training. The following callback functions were used to adjust the model learning: ModelCheckpoint — to save the best model, EarlyStopping — with to stop in the absence of improvement of the val accuracy metric during 15 eras, ReduceLROnPlateau — to reduce the learning rate by 3 times when stagnating. As a result of the training, high indicators of metrics were obtained. The trained model was compressed by quantification for later use on mobile and disabled devices. The proposed approach makes it possible to increase the overall accuracy and robustness of the neural network, to overcome the limitations of the traditional method.Запропоновано інноваційний клас-орієнтований метод аугментації фундус-зображень. Описано переваги цього методу у порівнянні з відомими. Обґрунтовано та підібрано стратегію аугментації для зображень з наявними ознаками глаукоми, катаракти, діабетичної ретинопатії та здорового ока відповідно до специфіки кожного класу. Аугментації наближені до реальних клінічних варіацій. Покращено стійкість саме до тих варіацій, які характерні для конкретної хвороби. Підвищено чутливість і специфічність саме до патологій на медичних зображеннях. Розроблено нейромережеву модель з використанням клас-орієнтованого методу. До базової мережі EfficientNetB3 методами трансферного навчання додано шари GlobalAveragePooling, Dropout з rate 0,5, Dense з 1024 нейронами, l2-регуляризацією зі значенням 0,001 та функцією активації relu, класифікаційний шар Dense з 4 нейронами та функцією активації softmax. Половину шарів базової моделі заморожено. Модель компілювалася за допомогою компілятора Adam з початковим learning rate 0,0001 та функцією втрат categorical crossentropy. Під час попередньої обробки розміри зображень зменшувалися до 224×224. Нормалізація зображень автоматично відбувалася під час генерації даних для навчання. Для коригування навчання моделі використовувалися такі функції зворотного виклику: ModelCheckpoint — для збереження найкращої моделі, EarlyStopping — для зупинки за відсутності покращення метрики val accuracy протягом 15 епох, ReduceLROnPlateau — для зменшення learning rate у 3 рази за стагнації. В результаті навчання отримано високі показники метрик. Навчену модель стиснено шляхом квантифікації для подальшого використання на мобільних пристроях та на пристроях з обмеженими можливостями. Запропонований підхід дозволяє підвищити загальну точність, робастність нейронної мережі, подолати обмеження традиційного методу.en
dc.description.abstractЗапропоновано інноваційний клас-орієнтований метод аугментації фундус-зображень. Описано переваги цього методу у порівнянні з відомими. Обґрунтовано та підібрано стратегію аугментації для зображень з наявними ознаками глаукоми, катаракти, діабетичної ретинопатії та здорового ока відповідно до специфіки кожного класу. Аугментації наближені до реальних клінічних варіацій. Покращено стійкість саме до тих варіацій, які характерні для конкретної хвороби. Підвищено чутливість і специфічність саме до патологій на медичних зображеннях. Розроблено нейромережеву модель з використанням клас-орієнтованого методу. До базової мережі EfficientNetB3 методами трансферного навчання додано шари GlobalAveragePooling, Dropout з rate 0,5, Dense з 1024 нейронами, l2-регуляризацією зі значенням 0,001 та функцією активації relu, класифікаційний шар Dense з 4 нейронами та функцією активації softmax. Половину шарів базової моделі заморожено. Модель компілювалася за допомогою компілятора Adam з початковим learning rate 0,0001 та функцією втрат categorical crossentropy. Під час попередньої обробки розміри зображень зменшувалися до 224×224. Нормалізація зображень автоматично відбувалася під час генерації даних для навчання. Для коригування навчання моделі використовувалися такі функції зворотного виклику: ModelCheckpoint — для збереження найкращої моделі, EarlyStopping — для зупинки за відсутності покращення метрики val accuracy протягом 15 епох, ReduceLROnPlateau — для зменшення learning rate у 3 рази за стагнації. В результаті навчання отримано високі показники метрик. Навчену модель стиснено шляхом квантифікації для подальшого використання на мобільних пристроях та на пристроях з обмеженими можливостями. Запропонований підхід дозволяє підвищити загальну точність, робастність нейронної мережі, подолати обмеження традиційного методу.uk
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 5 : 140-145.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3347
dc.subjectмашинне навчанняuk
dc.subjectаугментаціяuk
dc.subjectнейронні мережіuk
dc.subjectмедичні зображенняuk
dc.subjectmachine learningen
dc.subjectaugmentationen
dc.subjectneural networksen
dc.subjectmedical imagesen
dc.titleКлас-орієнтований метод аугментації фундус-зображеньuk
dc.title.alternativeClass-oriented Method of Fundus Images Augmentationen
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc004.032.26(045)
dc.relation.referencesZ. Wang, “A comprehensive survey on data augmentation,” arXiv preprint, arXiv:2401.12345, 2024.en
dc.relation.referencesM. Xu, “A comprehensive survey of image augmentation,” Information Fusion, vol. 97, pp. 1-23, 2023.en
dc.relation.referencesM. Buda, A. Maki, and M. A. Mazurowski, “A systematic study of the class imbalance problem in convolutional neural networks,” Neural Networks, vol. 106, pp. 249-259, 2018.en
dc.relation.referencesC. Shorten, and T. Khoshgoftaar, “A survey on image data augmentation for deep learning,” Journal of Big Data, vol. 6, no. 60, 2019.en
dc.relation.referencesG. Ghiasi, Y. Cui, and A. Srinivas, “Simple copy-paste is a strong data augmentation method for instance segmentation,” in Proc. IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR), 2021, pp. 2918-2928,en
dc.relation.referencesZ. Gong, L. Duan, F. Xiao, and Y. Wang, “MSAug: Multi-Strategy Augmentation for rare classes in semantic segmentation of remote sensing images,” Displays, vol. 84, Art.102779, 2024.en
dc.relation.referencesM. Frid-Adar, et al., “GAN-based synthetic medical image augmentation for increased CNN performance in liver lesion classification,” Neurocomputing, vol. 321, pp. 321-331, 2018en
dc.relation.references. Chen, et al., “Conditional GAN-based data augmentation for medical imaging,” IEEE Transactions on Medical Imaging, vol. 42, no. 5, pp. 1123-1134, 2023.en
dc.relation.referencesL. Zhang, et al., “Evaluation metrics for synthetic data in computer vision,” Pattern Analysis and Applications, vol. 27, no. 3, pp. 455-470, 2024.en
dc.relation.referencesG. Hu, et al., “Semantics-preserved graph siamese networks with class-oriented feature vector generation,” Neurocomputing, vol. 527, pp. 123-135, 2023.en
dc.relation.referencesT. Li, et al., “Balanced contrastive learning with class-aware augmentation,” Pattern Recognition, vol. 142, Art. 109702, 2025.en
dc.relation.referencesL. Perez, and J. Wang, “The effectiveness of data augmentation in image classification using deep learning,” ArXiv preprint, ArXiv:1712.04621, 2017.en
dc.relation.referencesD. V. Prochukhan, “Features of the modification of the inceptionresnetv2 architecture and the creation of a diagnostic system for determining the degree of damage to retinal vessels,” Computer systems and information technologies, no. 1, pp. 27-32, 2024, https://doi.org/10.31891/csit-2024-1-3 .en
dc.relation.referencesД. В. Прочухан. «Особливості конкатенації згорткових нейронних мереж для скринінгу діабетичної ретинопатії,» Системи обробки інформації, № 1 (176), с. 89-94, 2024, https://doi.org/10.30748/soi.2024.176.11 .uk
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2025-182-5-140-145


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію