Показати скорочену інформацію

dc.contributor.authorКоменчук, О. В.uk
dc.contributor.authorМокін, О. Б.uk
dc.contributor.authorKomenchuk, O. V.en
dc.contributor.authorMokin, O. B.en
dc.date.accessioned2024-11-16T12:43:47Z
dc.date.available2024-11-16T12:43:47Z
dc.date.issued2024
dc.identifier.citationКоменчук О. В., Мокін О. Б. Інформаційна технологія прискореного анотування медичних зображень в задачах сегментації на основі моделей глибокого навчання. Вісник Вінницького політехнічного інституту. 2024. Вип. 4. С. 95–103.uk
dc.identifier.issn1997-9266
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/43564
dc.description.abstractThe paper analyzed tools for creating annotations of medical images in image segmentation tasks. The performance of the well-known tools Supervisely, CVAT, and Segments.ai is compared with the information technology proposed in the work, which uses the Language Segment-Anything model with relevant text prompts and an automatic validation mechanism, based on the EfficientNet-B2 classification model. The main objective of the study was to determine the optimal approach to the automation of the image annotation process to ensure maximum speed, maintaining expert accuracy. The results showed that usage of the Supervisely tool reduced the initial annotation time to 39.7 seconds, but required additional 59.5 seconds to adjust the masks. CVAT, with its semi-automated tools, produced masks in 64.8 seconds, but required another 85.1 seconds for adjustments. In comparison, Segments.ai required a full manual annotation, which took 130.2 seconds. At the same time, the developed information technology, which uses the Language Segment-Anything model with task-specific text prompts and an additional automatic validation mechanism, significantly reduced the time for creating annotations to about 29.6 seconds per image, and also reduced the time for manual correction to 45.4 seconds. The developed information technology demonstrated high speed and accuracy in creating pseudo-masks, confirmed by experimental results. The main advantages of this approach are the decrease of time, needed for manual correction and increase the efficiency of the medical image annotation process. This work points out to the significant potential of using automated methods to accelerate annotation in the field of computer vision, improving the speed of performing medical data analysis tasks while maintaining the desired qualityen
dc.description.abstractПроаналізовано інструменти для створення анотацій медичних зображень у задачах сегментації зображень. Проведено порівняння продуктивності відомих інструментів Supervisely, CVAT та Segments.ai із запропонованою у роботі інформаційною технологією, яка використовує модель Language Segment-Anything з релевантними текстовими підказками і механізмом автоматичного валідування на основі моделі класифікації EfficientNet-B2. Основною метою дослідження було визначення оптимального підходу до автоматизації процесу анотування зображень для забезпечення максимальної швидкості зі збереженням експертної точності. Результати показали, що використання інструмента Supervisely дозволило скоротити час на первинну анотацію до 39,7 секунд, але вимагало додаткових 59,5 секунд на корегування масок. CVAT, зі своїми напівавтоматичними інструментами, забезпечував створення масок за 64,8 с, але потребував ще 85,1 с на корегування. У порівнянні з ними, Segments.ai вимагав повної ручної анотації, що тривала 130,2 с. Водночас, розроблена інформаційна технологія, яка використовує модель Language Segment-Anything з налаштованими під задачу текстовими підказками та додатковий механізм автоматичного валідування, значно знизила час на створення анотацій – до близько 29,6 с на зображення, а також знизила час на ручне корегування до 45,4 с. Розроблена інформаційна технологія продемонструвала високу швидкість та точність у створенні псевдомасок, підтверджену експериментальними результатами. Основні переваги цього підходу полягають у зменшенні необхідності в ручному корегування та підвищенні ефективності процесу анотування медичних зображень. Це дослідження вказує на значний потенціал застосування автоматизованих методів для прискорення анотування у сфері комп`ютерного зору, сприяючи покращенню швидкості виконання завдань аналізу медичних даних зі збереженням потрібної якості.uk
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. Вип. 4 : 95–103.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3072
dc.subjectінформаційна технологіяuk
dc.subjectштучний інтелектuk
dc.subjectглибоке навчанняuk
dc.subjectсегментаціяuk
dc.subjectанотування данихuk
dc.subjectпсевдомаскиuk
dc.subjectавтоматичне валідуванняuk
dc.subjectinformation technologyen
dc.subjectartificial intelligenceen
dc.subjectdeep learningen
dc.subjectimage segmentationen
dc.subjectdata annotationen
dc.subjectpseudomasksen
dc.subjectautomatic validationen
dc.titleІнформаційна технологія прискореного анотування медичних зображень в задачах сегментації на основі моделей глибокого навчанняuk
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc[004.8+004.93]:616.2
dc.relation.referencesM. Aljabri, M. AlAmir, and M. AlGhamdi, “Towards a better understanding of annotation tools for medical imaging: a survey,” Multimed Tools Appl 81, pp. 25877-25911, 2022. https://doi.org/10.1007/s11042-022-12100-1 .en
dc.relation.references“Language Segment-Anything,” GitHub. [Electronic resource]. Available: https://github.com/luca-medeiros/langsegment-anythingen
dc.relation.references“Supervisely,” GitHub, [Electronic resource]. Available: https://github.com/supervisely/superviselyen
dc.relation.references“CVAT,” GitHub. [Electronic resource]. Available: https://github.com/cvat-ai/cvat .en
dc.relation.references“Segments.ai,” GitHub. [Electronic resource]. Available: https://github.com/segments-ai/segments-aien
dc.relation.references“Segment Anything Model (SAM),” GitHub. [Electronic resource]. Available: https://github.com/facebookresearch/segmentanythingen
dc.relation.references“OpenCV: Open Source Computer Vision Library,” GitHub. [Electronic resource]. Available: https://github.com/opencv/opencven
dc.relation.referencesM. Tan, and Q.V. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks,” Proceedings of the 36th International Conference on Machine Learning, ICML 2019, Long Beach, 2019, pp. 6105-6114. [Electronic resource]. Available: https://arxiv.org/pdf/1905.11946en
dc.relation.referencesMalhotra Priyanka, Gupta Sheifali, Koundal Deepika, Zaguia Atef, and Enbeyle Wegayehu, “Deep Neural Networks for Medical Image Segmentation,” Journal of Healthcare Engineering, 9580991, 15 pp., 2022. https://doi.org/10.1155/2022/9580991en
dc.relation.references“Pulmonary Chest X-Ray Defect Detection,” Kaggle, [Electronic resource]. Available: https://www.kaggle.com/datasets/nikhilpandey360/chest-xray-masks-and-labels/dataen
dc.relation.referencesF. van Beers, A. Lindström, E. Okafor and M. Wiering, “Deep Neural Networks with Intersection over Union Loss for Binary Image Segmentation,” in Proceedings of the 8th International Conference on Pattern Recognition Applications and Methods, vol. 1 ICPRAM, 2019, pp. 438-445. SciTePress. [Electronic resource]. Available: https://pure.rug.nl/ws/portalfiles/portal/87088047/ICPRAM_2019_35.pdf .en
dc.relation.referencesFeng Li, et. al, “Visual In-Context Prompting,” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024, pp. 12861-12871. [Electronic resource]. Available: https://openaccess.thecvf.com/content/CVPR2024/papers/Li_Visual_In-Context_Prompting_CVPR_2024_paper.pdfen
dc.relation.referencesО. В. Коменчук, і О. Б. Мокін, «Аналіз методів передоброблення панорамних стоматологічних рентгенівських знімків для задач сегментації зображень,» Вісник Вінницького політехнічного інституту, № 5, с. 41-49, 2023. https://doi.org/10.31649/1997-9266-2023-170-5-41-49 .en
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2024-175-4-95-103


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію