Показати скорочену інформацію

dc.contributor.authorІсаєнков, Я. О.uk
dc.contributor.authorМокін, О. Б.uk
dc.contributor.authorIsaienkov, Ya.en
dc.contributor.authorMokin, O.en
dc.date.accessioned2024-06-26T10:17:49Z
dc.date.available2024-06-26T10:17:49Z
dc.date.issued2024
dc.identifier.citationІсаєнков Я. О., Мокін О. Б. Трансформація цільового класу для задачі сегментації з використанням U-GAN. Вісник Вінницького політехнічного інституту. 2024. № 1. С. 81-87.uk
dc.identifier.issn1997–9266
dc.identifier.issn1997–9274
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/42903
dc.description.abstractНаведено огляд сучасних генеративних змагальних моделей (ГЗМ) для аугментації даних з фокусом на дослідження створення зображень та відповідних до них сегментаційних масок. Це особливо корисно у випадках, коли даних недостатньо, вони важкодоступні, мають конфіденційний характер, або розмітка вимагає значних ресурсів. Робота спрямована на підвищення ефективності процесу аугментації міноритарного класу за рахунок перетворення зображення з іншого класу та створення сегментаційної маски. Запропоновано новий підхід до одночасної генерації зображення та сегментаційної маски з використанням генеративної змагальної мережі, де генератором виступає U-Net. Цей генератор приймає на вхід зображення одного класу та шум, який подається як додатковий канал зображення. Генератор намагається створити зображення іншого класу, мінімізуючи зміни в початковому зображенні та додаючи ознаки іншого, разом з сегментаційною маскою, нового класу. Дискримінатор же визначає, чи є пара картинка–маска реальною чи згенерованою. У моделі для збереження оригінального вигляду вхідного зображення з мінімальними змінами використовується алгоритм, який застосовує тільки ті зміни згенерованого зображення, що вказані створеною сегментаційною маскою. Це дозволяє отримати зображення з ознаками нового класу з мінімальними змінами. Апробацію запропонованого підходу виконано на наборі даних панорамних знімків зубів, на основі якого створено набір зображень окремих зубів, частина з яких з пломбами, а частина — без них. Експериментальний набір даних включав 128 зубів без пломб і 128 з пломбами. Для створення ГЗМ взято всі зображення з пломбами та без пломб і навчено генератор перетворювати зображення без пломб в аналогічні з пломбами. Для перевірки ефективності аугментації проведено два експерименти по 50 симуляцій з різним випадковим станом для тренування сегментаційної моделі U-Net на основі ResNet-34. Перший експеримент використовував тільки реальні дані для тренування, а другий включав 64 додаткові зображення та відповідні маски, створені генератором на основі наявних зображень нульового класу. Середні значення коефіцієнта Жаккара серед всіх симуляцій для першого та другого експериментів відповідно склали 94,2 та 96,1. Це свідчить про те, що дані, згенеровані за допомогою запропонованої аугментації, дійсно сприяють підвищенню якості сегментаційної моделі та цей підхід можна комбінувати разом з іншими типами аугментацій.uk
dc.description.abstractThe paper presents a review of modern generative adversarial models for data augmentation, focusing on research, aimed at creating images and their corresponding segmentation masks. This task is particularly useful in cases where data is insufficient, hard to access, has confidential nature, or where labeling requires significant resources. The paper is aimed at the task of augmenting the minority class by transforming an image from another class and creating a segmentation mask. New approach is proposed for the simultaneous generation of the image and segmentation mask, using a generative adversarial network with U-Net generator. This generator takes an image of one class and noise, which is fed as an additional image channel. The generator tries to create an image of another class, minimizing changes in the original image and adding features of another along with the segmentation mask of the new class. The discriminator then determines whether the picture-mask pair is real or generated. The algorithm that applies only those changes of the generated image that are indicated by the created segmentation mask used to preserve the original appearance of the input image with minimal changes. This technique allows to obtain an image with features of the new class with minimal changes. The practical implementation of the proposed approach was conducted on a dataset of panoramic dental X-rays, based on which a set of individual teeth was created, some with fillings and some without. The experimental data set included 128 teeth without fillings and 128 with fillings. The GAN is trained to transform images without fillings into similar ones with fillings using all input images. Two experiments of 50 simulations each with different random states were conducted for training the segmentation model U-Net with ResNet-34 backbone to check the effectiveness of this augmentation. The first experiment used only real data for training, while the second included 64 additional images and masks created by the generator based on existing zero-class images. The average Jaccard score among all simulations for the first and second experiments were respectively 94.2 and 96.1. This result indicates that data generated using the proposed augmentation helps improve the quality of segmentation models and this approach can be combined with other augmentation techniques.en
dc.description.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/2981
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.publisherВісник Вінницького політехнічного інституту. № 1 : 81-87.uk
dc.subjectаугментаціяuk
dc.subjectгенерування данихuk
dc.subjectгенеративна змагальна мережаuk
dc.subjectсегментаціяuk
dc.subjectглибоке навчанняuk
dc.subjectГЗМuk
dc.subjectU-GANen
dc.subjectU-генераторuk
dc.subjectaugmentationen
dc.subjectdata generationen
dc.subjectgenerative adversarial networken
dc.subjectsegmentationen
dc.subjectdeep learningen
dc.subjectGANen
dc.subjectU-generatoren
dc.titleТрансформація цільового класу для задачі сегментації з використанням U-GANuk
dc.title.alternativeTarget class transformation for segmentation task using U-GANen
dc.typeArticle
dc.identifier.udc004.054:[004.032.26+004.85]
dc.relation.referencesP. Dhariwal and A. Q. Nichol, “Diffusion Models Beat GANs on Image Synthesis,” in Advances in Neural Information Processing Systems, 2021. [Online]. Available: https://openreview.net/forum?id=AAWuCvzaVt. Accessed: January 30, 2024.en
dc.relation.referencesV. Sandfort, K. Yan, P.J. Pickhardt, et al., “Data augmentation using generative adversarial networks (CycleGAN) to improve generalizability in CT segmentation tasks,” Sci Rep, vol. 9, Article no. 16884, 2019. https://doi.org/10.1038/s41598-019-52737-x .en
dc.relation.referencesH. Mansourifar, L. Chen and W. Shi, “Virtual Big Data for GAN Based Data Augmentation,” 2019 IEEE International Conference on Big Data (Big Data), Los Angeles, CA, USA, 2019, pp. 1478-1487, https://doi.org/10.1109/BigData47090.2019.9006268 .en
dc.relation.referencesA. Sauer, K. Schwarz, and A. Geiger, “StyleGAN-XL: Scaling StyleGAN to Large Diverse Datasets,” in ACM SIGGRAPH 2022 Conference Proceedings (SIGGRAPH ‘22), Association for Computing Machinery, New York, NY, USA, 2022, Article 49, pp. 1–10. https://doi.org/10.1145/3528233.3530738 .en
dc.relation.referencesO. Ronneberger, P. Fischer, and T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation,” Computer Science Department and BIOSS Centre for Biological Signalling Studies, University of Freiburg, Germany, 2015. [Online]. Available: https://arxiv.org/pdf/1505.04597.pdf . Accessed: January 30, 2024.en
dc.relation.referencesR. Gulakala, B. Markert, and M. Stoffel, “Generative adversarial network based data augmentation for CNN based detection of Covid-19,” Sci Rep, vol. 12, Article no. 19186, 20І22. https://doi.org/10.1038/s41598-022-23692-x .en
dc.relation.referencesX. Chen, et al., “Generative Adversarial U-Net for Domain-free Medical Image Augmentation,” in arXiv e-prints, 2021. [Online]. Available: https://arxiv.org/pdf/2101.04793.pdf . Accessed: January 30, 2024.en
dc.relation.referencesE. Yıldız, et al., “Generative Adversarial Network Based Automatic Segmentation of Corneal Subbasal Nerves on In Vivo Confocal Microscopy Images,” Trans. Vis. Sci. Tech., vol. 10, no. 6, Article 33, 2021. https://doi.org/10.1167/tvst.10.6.33 .en
dc.relation.referencesT. Neff, C. Payer, D. Štern, and M. Urschler, “Generative Adversarial Network based Synthesis for Supervised Medical Image Segmentation,” OAGM & ARW Joint Workshop, 2017. https://doi.org/10.3217/978-3-85125-524-9-30 .en
dc.relation.referencesC. Bowles, et al., “GAN Augmentation: Augmenting Training Data using Generative Adversarial Networks,” in arXiv eprints, 2018. [Online]. Available: https://arxiv.org/abs/1810.10863 . Accessed: January 30, 2024.en
dc.relation.referencesV. Sushko, D. Zhang, J. Gall, and A. Khoreva, “One-Shot Synthesis of Images and Segmentation Masks,” in arXiv eprints, 2022. [Online]. Available: https://arxiv.org/abs/2209.07547 . Accessed: January 30, 2024.en
dc.relation.referencesT. Malygina, E. Ericheva, and I. Drokin, “Data Augmentation with GAN: Improving Chest X-Ray Pathologies Prediction on Class-Imbalanced Cases,” in W. van der Aalst et al. (Eds.), Analysis of Images, Social Networks and Texts, AIST 2019, Lecture Notes in Computer Science, vol. 11832, Springer, Cham, 2019. https://doi.org/10.1007/978-3-030-37334-429 .en
dc.relation.referencesH. Abdi, S. Kasaei, and M. Mehdizadeh, “Automatic segmentation of mandible in panoramic x-ray,” J. Med. Imaging (Bellingham), vol. 2, no. 4, 044003, 2015. [Online]. Available: https://www.academia.edu/36038975/PreProcessing_of_Dental_X-Ray_Images_Using_Adaptive_Histogram_Equalization_Method. Accessed: January 30, 2024.en
dc.relation.referencesЯ. О. Ісаєнков, і О. Б. Мокін, «Аналіз генеративних моделей глибокого навчання та особливостей їх реалізації на прикладі WGAN,» Вісник Вінницького політехнічного інституту, № 1, с. 82-94, 2022. https://doi.org/10.31649/1997-9266-2022-160-1-82-94 .uk
dc.relation.referencesО. В. Коменчук, і О. Б. Мокін, «Аналіз методів передоброблення панорамних стоматологічних рентгенівських знімків для задач сегментації зображень,» Вісник Вінницького політехнічного інституту, № 5, с. 41-49, 2023. https://doi.org/10.31649/1997-9266-2023-170-5-41-49 .uk
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2024-172-1-81-87


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію