dc.contributor.author | Коменчук, О. В. | uk |
dc.contributor.author | Мокін, О. Б. | uk |
dc.contributor.author | Komenchuk, O. V. | en |
dc.contributor.author | Mokin, O. B. | en |
dc.date.accessioned | 2024-11-16T12:43:47Z | |
dc.date.available | 2024-11-16T12:43:47Z | |
dc.date.issued | 2024 | |
dc.identifier.citation | Коменчук О. В., Мокін О. Б. Інформаційна технологія прискореного анотування медичних зображень в задачах сегментації на основі моделей глибокого навчання. Вісник Вінницького політехнічного інституту. 2024. Вип. 4. С. 95–103. | uk |
dc.identifier.issn | 1997-9266 | |
dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/43564 | |
dc.description.abstract | The paper analyzed tools for creating annotations of medical images in image segmentation tasks. The performance of
the well-known tools Supervisely, CVAT, and Segments.ai is compared with the information technology proposed in the
work, which uses the Language Segment-Anything model with relevant text prompts and an automatic validation mechanism, based on the EfficientNet-B2 classification model.
The main objective of the study was to determine the optimal approach to the automation of the image annotation process to ensure maximum speed, maintaining expert accuracy. The results showed that usage of the Supervisely tool reduced the initial annotation time to 39.7 seconds, but required additional 59.5 seconds to adjust the masks. CVAT, with its
semi-automated tools, produced masks in 64.8 seconds, but required another 85.1 seconds for adjustments. In comparison,
Segments.ai required a full manual annotation, which took 130.2 seconds. At the same time, the developed information
technology, which uses the Language Segment-Anything model with task-specific text prompts and an additional automatic
validation mechanism, significantly reduced the time for creating annotations to about 29.6 seconds per image, and also
reduced the time for manual correction to 45.4 seconds.
The developed information technology demonstrated high speed and accuracy in creating pseudo-masks, confirmed by
experimental results. The main advantages of this approach are the decrease of time, needed for manual correction and
increase the efficiency of the medical image annotation process.
This work points out to the significant potential of using automated methods to accelerate annotation in the field of computer vision, improving the speed of performing medical data analysis tasks while maintaining the desired quality | en |
dc.description.abstract | Проаналізовано інструменти для створення анотацій медичних зображень у задачах сегментації зображень. Проведено порівняння продуктивності відомих інструментів Supervisely, CVAT та Segments.ai із запропонованою у роботі інформаційною технологією, яка використовує модель Language Segment-Anything з релевантними текстовими підказками і механізмом автоматичного валідування на основі моделі класифікації EfficientNet-B2.
Основною метою дослідження було визначення оптимального підходу до автоматизації процесу анотування зображень для забезпечення максимальної швидкості зі збереженням експертної точності. Результати показали, що використання інструмента Supervisely дозволило скоротити час на первинну анотацію до 39,7 секунд, але вимагало додаткових 59,5 секунд на корегування масок. CVAT, зі своїми напівавтоматичними інструментами, забезпечував створення масок за 64,8 с, але потребував ще 85,1 с на корегування. У порівнянні з ними, Segments.ai вимагав повної ручної анотації, що тривала 130,2 с. Водночас, розроблена інформаційна технологія, яка використовує модель Language Segment-Anything з налаштованими під задачу текстовими підказками та додатковий механізм автоматичного валідування, значно знизила час на створення анотацій – до близько 29,6 с на зображення, а також знизила час на ручне корегування до 45,4 с.
Розроблена інформаційна технологія продемонструвала високу швидкість та точність у створенні псевдомасок, підтверджену експериментальними результатами. Основні переваги цього підходу полягають у зменшенні необхідності в ручному корегування та підвищенні ефективності процесу анотування медичних зображень.
Це дослідження вказує на значний потенціал застосування автоматизованих методів для прискорення анотування у сфері комп`ютерного зору, сприяючи покращенню швидкості виконання завдань аналізу медичних даних зі збереженням потрібної якості. | uk |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Вісник Вінницького політехнічного інституту. Вип. 4 : 95–103. | uk |
dc.relation.uri | https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3072 | |
dc.subject | інформаційна технологія | uk |
dc.subject | штучний інтелект | uk |
dc.subject | глибоке навчання | uk |
dc.subject | сегментація | uk |
dc.subject | анотування даних | uk |
dc.subject | псевдомаски | uk |
dc.subject | автоматичне валідування | uk |
dc.subject | information technology | en |
dc.subject | artificial intelligence | en |
dc.subject | deep learning | en |
dc.subject | image segmentation | en |
dc.subject | data annotation | en |
dc.subject | pseudomasks | en |
dc.subject | automatic validation | en |
dc.title | Інформаційна технологія прискореного анотування медичних зображень в задачах сегментації на основі моделей глибокого навчання | uk |
dc.type | Article, professional native edition | |
dc.type | Article | |
dc.identifier.udc | [004.8+004.93]:616.2 | |
dc.relation.references | M. Aljabri, M. AlAmir, and M. AlGhamdi, “Towards a better understanding of annotation tools for medical imaging: a survey,”
Multimed Tools Appl 81, pp. 25877-25911, 2022. https://doi.org/10.1007/s11042-022-12100-1 . | en |
dc.relation.references | “Language Segment-Anything,” GitHub. [Electronic resource]. Available: https://github.com/luca-medeiros/langsegment-anything | en |
dc.relation.references | “Supervisely,” GitHub, [Electronic resource]. Available: https://github.com/supervisely/supervisely | en |
dc.relation.references | “CVAT,” GitHub. [Electronic resource]. Available: https://github.com/cvat-ai/cvat . | en |
dc.relation.references | “Segments.ai,” GitHub. [Electronic resource]. Available: https://github.com/segments-ai/segments-ai | en |
dc.relation.references | “Segment Anything Model (SAM),” GitHub. [Electronic resource]. Available: https://github.com/facebookresearch/segmentanything | en |
dc.relation.references | “OpenCV: Open Source Computer Vision Library,” GitHub. [Electronic resource]. Available: https://github.com/opencv/opencv | en |
dc.relation.references | M. Tan, and Q.V. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks,” Proceedings of the
36th International Conference on Machine Learning, ICML 2019, Long Beach, 2019, pp. 6105-6114. [Electronic resource].
Available: https://arxiv.org/pdf/1905.11946 | en |
dc.relation.references | Malhotra Priyanka, Gupta Sheifali, Koundal Deepika, Zaguia Atef, and Enbeyle Wegayehu, “Deep Neural Networks for
Medical Image Segmentation,” Journal of Healthcare Engineering, 9580991, 15 pp., 2022.
https://doi.org/10.1155/2022/9580991 | en |
dc.relation.references | “Pulmonary Chest X-Ray Defect Detection,” Kaggle, [Electronic resource]. Available:
https://www.kaggle.com/datasets/nikhilpandey360/chest-xray-masks-and-labels/data | en |
dc.relation.references | F. van Beers, A. Lindström, E. Okafor and M. Wiering, “Deep Neural Networks with Intersection over Union
Loss for Binary Image Segmentation,” in Proceedings of the 8th International Conference on Pattern Recognition Applications and Methods, vol. 1 ICPRAM, 2019, pp. 438-445. SciTePress. [Electronic resource]. Available:
https://pure.rug.nl/ws/portalfiles/portal/87088047/ICPRAM_2019_35.pdf . | en |
dc.relation.references | Feng Li, et. al, “Visual In-Context Prompting,” Proceedings of the IEEE/CVF Conference on Computer Vision
and Pattern Recognition (CVPR), 2024, pp. 12861-12871. [Electronic resource]. Available:
https://openaccess.thecvf.com/content/CVPR2024/papers/Li_Visual_In-Context_Prompting_CVPR_2024_paper.pdf | en |
dc.relation.references | О. В. Коменчук, і О. Б. Мокін, «Аналіз методів передоброблення панорамних стоматологічних рентгенівських
знімків для задач сегментації зображень,» Вісник Вінницького політехнічного інституту, № 5, с. 41-49, 2023.
https://doi.org/10.31649/1997-9266-2023-170-5-41-49 . | en |
dc.identifier.doi | https://doi.org/10.31649/1997-9266-2024-175-4-95-103 | |