Показати скорочену інформацію

dc.contributor.authorІсаєнков, Я. О.uk
dc.contributor.authorМокін, О. Б.uk
dc.contributor.authorIsayenkov, Ya.en
dc.contributor.authorMokin, O.en
dc.date.accessioned2024-09-13T08:37:43Z
dc.date.available2024-09-13T08:37:43Z
dc.date.issued2024
dc.identifier.citationІсаєнков Я. О., Мокін О. Б. Самовалідований U-GAN для трансформації цільового класу в задачах сегментації. Вісник Вінницького політехнічного інституту. 2024. № 3. С. 102–111.uk
dc.identifier.issn1997-9266
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/43273
dc.description.abstractРозглянуто проблему браку даних для навчання автоматизованих інтелектуальних систем у різ-них специфічних сферах, таких як медицина, аналіз супутникових знімків, аграрна галузь, екологія, мова. Описано сучасні методи розв’язання цієї проблеми, зокрема аугментація, генеративні змагальні мережі, дифузійні моделі, інпейнтинг. Основну увагу приділено задачі сегментації, де, окрім зображен-ня, необхідно створювати маски для нових об’єктів. Також зазначено проблему суб’єктивного і ручно-го процесу вибору найкращої епохи під час навчання моделі, і окреслено альтернативи, які можуть допомогти вирішити цю проблему, такі як inception score та frechet inception distance. Запропоновано покращену модель часткової трансформації цільового класу сегментації, яка включає нові компоненти самовалідації, такі як додаткова функція втрат, що контролює схожість вихідного зображення на вхідне, претреновану модель сегментації і метрику для оцінки якості згене-рованих масок з масками сегментації згенерованих зображень. Ці вдосконалення дозволяють системі ефективніше перетворювати фоновий або нульовий клас у цільовий, створювати точніші сегмен-таційні маски та автоматично вибирати найкращі епохи під час навчання. Експерименти на наборі даних панорамних знімків зубів показали, що використання цієї технології дозволило збільшити точність сегментації пломб на 0,9 %, підвищивши значення коефіцієнта Жак-кара з 90,5 % до 91,4 %. Модель генеративної змагальної мережі тренувалася впродовж 150 епох з автоматичним вибором кращої епохи, якою була 135-та епоха. Якість згенерованих зображень цієї епохи була підтверджено експертною оцінкою. На супутникових знімках кораблів використання моде-лі показало підвищення точності сегментації з 63,4 % до 65,2 %. Незважаючи на складність даних, модель змогла адекватно трансформувати вхідні дані порожнього моря в об’єкти кораблів. Найкращі результати досягнуто на 82-й епосі, що також збіглося з вибором найкращої епохи експертом, де-монструючи важливість автоматичного вибору оптимальної епохи під час навчання для вилучення з цього процесу додаткових суб’єктивних факторів та прискорення підготовки моделей. Ці результати підтверджують ефективність запропонованого підходу, демонструючи поліпшен-ня метрик в задачах сегментації та автоматизацію процесу вибору моделі. Запропоновані методи та підходи мають потенціал для широкого застосування у різних сферах, сприяючи розвитку нових інтелектуальних систем та підвищенню їхньої точності.uk
dc.description.abstractThe paper addresses the problem of data scarcity for training automated intelligent systems in various spe-cific fields such as medicine, satellite image analysis, agriculture, ecology, and language. It describes modern methods for solving this problem, including augmentation, generative adversarial networks, diffusion models, and inpainting. The focus is on the task of segmentation, where it is necessary to create masks for new objects in addition to the image. The subjective and manual process of selecting the best epoch during model training is also noted, and alternatives that can help solve this problem, such as inception score and frechet inception distance, are outlined. An improved model of partial transformation of the target class of segmentation is proposed, which in-cludes new self-validation components, such as an additional loss function that controls the similarity of the output image to the input one, a pretrained segmentation model, and a metric for assessing the quality of the generated masks with segmentation masks of generated images. These improvements allow the system to more effectively transform the background or zero class into the target one, create more accurate segmenta-tion masks, and automatically select the best epochs during training. Experiments on a dataset of panoramic tooth images showed that the use of this technology allowed in-creasing the accuracy of filling segmentation by 0.9 %, raising the Jaccard coefficient value from 90.5 % to 91.4 %. The generative adversarial network model was trained for 150 epochs with automatic selection of the best epoch, which was the 135th epoch, and the quality of the generated images of this epoch was con-firmed by expert evaluation. On satellite images of ships, the use of the model showed an improvement in segmentation accuracy from 63.4% to 65.2 %. Despite the complexity of the data, the model was able to adequately transform the input data of the empty sea into ship objects. The best results were achieved at the 82nd epoch, which also coincided with the expert's choice of the best epoch, demonstrating the importance of automatic selection of the optimal epoch during training to eliminate additional subjective factors from this process and speed up model preparation. These results confirm the effectiveness of the proposed approach, showing metrics improvements and better automation of the basic approach. The proposed methods and approaches have the potential for wide application in various fields, contributing to the development of new intelligent systems and increas-ing their accuracy.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 3 : 102–111.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3041
dc.subjectаугментаціяuk
dc.subjectгенерування данихuk
dc.subjectгенеративна змагальна мережаuk
dc.subjectГЗМuk
dc.subjectсегментаціяuk
dc.subjectглибоке навчанняuk
dc.subjectU-GANen
dc.subjectU-генераторuk
dc.subjectaugmentationen
dc.subjectdata generationen
dc.subjectgenerative adversarial networken
dc.subjectGANen
dc.subjectsegmentationen
dc.subjectdeep learningen
dc.subjectU-generatoren
dc.titleСамовалідований U-GAN для трансформації цільового класу в задачах сегментаціїuk
dc.title.alternativeSelf-validated u-gan for target class transformation in segmentation tasksen
dc.typeArticle
dc.identifier.udc004.054:[004.032.26+004.85]
dc.relation.referencesH. Abdi, S. Kasaei, and M. Mehdizadeh, “Automatic segmentation of mandible in panoramic x-ray,” Journal Med. Imaging (Bellingham), vol. 2, no. 4, 044003, 2015. [Electronic resource]. Available: https://www.academia.edu/36038975/PreProcessing_of_Dental_X-Ray_Images_Using_Adaptive_Histogram_Equalization_Method . Accessed on: May 30, 2024.en
dc.relation.referencesA. Samat, et al., “Mapping Blue and Red Color-Coated Steel Sheet Roof Buildings over China Using Sentinel-2A/B MSIL2A Images,” Remote Sens., no. 14, 230 p., 2022. https://doi.org/doi.org/10.3390/rs14010230 .en
dc.relation.referencesC. Zhang, A. Marzougui, and S. Sankaran, “High-resolution satellite imagery applications in crop phenotyping: An overview,” Computers and Electronics in Agriculture, vol. 175, pp. 105584, 2020. ISSN 0168-1699, https://doi.org/10.1016/j.compag.2020.105584 .en
dc.relation.referencesВ. Мокін, К. Бондалєтов, Є. Крижановський, і В. Караваєв, «Метод аугментації текстів про стан масивів вод на основі інтелектуальної прив’язки до багатозв’язних геоінформаційних систем іменованих сутностей,» Вісник Вінницько-го політехнічного інституту, № 3, с. 55-65, 2023. https://doi.org/10.31649/1997-9266-2023-168-3-55-65 .en
dc.relation.referencesO. Bisikalo, O. Kovtun, and V. Kovtun, “Neural Network Concept of Ukrainian-Language Text Embedding,” 2023 13th International Conference on Advanced Computer Information Technologies (ACIT), Wrocław, Poland, 2023, pp. 566-569, https://doi.org/10.1109/ACIT58437.2023.10275511 .en
dc.relation.referencesC. Shorten, and T. Khoshgoftaar, “A survey on Image Data Augmentation for Deep Learning,” J Big Data, no. 6, pp.60, 2019. https://doi.org/10.1186/s40537-019-0197-0 .en
dc.relation.referencesЯ. Ісаєнков, і О. Мокін, «Аналіз генеративних моделей глибокого навчання та особливостей їх реалізації на прик-ладі WGAN,» Вісник Вінницького політехнічного інституту, № 1, с. 82-94, 2022. https://doi.org/10.31649/1997-9266-2022-160-1-82-94.uk
dc.relation.referencesM. Chen, S. Mei, J. Fan, and M. Wang, “An overview of diffusion models: Applications, guided generation, statistical rates and optimization,” arXiv preprint, arXiv: 2404.07771, April 2024. [Electronic resource]. Available: https://arxiv.org/abs/2404.07771. Accessed on: May 30, 2024.en
dc.relation.referencesM. Chen, S. Mei, J. Fan, and M. Wang, “An overview of diffusion models: Applications, guided generation, statistical rates and optimization,” arXiv preprint, arXiv: 2404.07771, April 2024. [Electronic resource]. Available: https://arxiv.org/abs/2404.07771. Accessed on: May 30, 2024.en
dc.relation.referencesL. Zhao, and R. Zhao, “Image Inpainting Research Based on Deep Learning,” International Journal of Advanced Net-work, Monitoring and Controls. no. 5. pp. 23-30, 2020. https://doi.org/10.21307/ijanmc-2020-013 .en
dc.relation.referencesЯ. Ісаєнков, і О. Мокін, «Трансформація цільового класу для задачі сегментації з використанням U-GAN,» Віс-ник Вінницького політехнічного інституту, № 1, с. 81-87, 2024. https://doi.org/10.31649/1997-9266-2024-172-1-81-87 .uk
dc.relation.referencesK. Falahkheirkhah, et al.,“Deepfake Histologic Images for Enhancing Digital Pathology,” Laboratory Investigation, vol. 103, Issue 1, pp. 100006, 2023. ISSN 0023-6837. https://doi.org/10.1016/j.labinv.2022.100006 .en
dc.relation.referencesR. Gulakala, B. Markert, and M. Stoffel, “Generative adversarial network based data augmentation for CNN based de-tection of Covid-19,” Sci Rep, vol. 12, Article no. 19186, 2022. https://doi.org/10.1038/s41598-022-23692-x .en
dc.relation.referencesО. В. Коменчук, і О. Б. Мокін, «Аналіз методів передоброблення панорамних стоматологічних рентгенівських знімків для задач сегментації зображень,» Вісник Вінницького політехнічного інституту, № 5, с. 41-49, 2023. https://doi.org/10.31649/1997-9266-2023-170-5-41-49 .uk
dc.relation.referencesW. Reade, and J. Faudi, “Airbus Ship Detection Challenge,” Kaggle: Your Machine Learning and Data Science Com-munity. [Electronic resource]. Available: https://www.kaggle.com/competitions/airbus-ship-detection . Accesed: May 30, 2024.en
dc.relation.referencesM. Shugaev, “Unet34 submission TTA (0.699 new public LB),” Kaggle: Your Machine Learning and Data Science Community. [Electronic resource]. Available: https://www.kaggle.com/code/iafoss/unet34-submission-tta-0-699-new-public-lb . Accesed: May 30, 2024.en
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2024-174-3-102-111


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію