Показати скорочену інформацію

dc.contributor.authorПилипець, Ю. О.uk
dc.contributor.authorЯрославський, Я. І.uk
dc.contributor.authorВолосович, О. С.uk
dc.contributor.authorPylypets, Yu. O.en
dc.contributor.authorYaroslavskyy, Ya. I.en
dc.contributor.authorVolosovych, O. S.en
dc.date.accessioned2026-02-16T09:09:53Z
dc.date.available2026-02-16T09:09:53Z
dc.date.issued2025
dc.identifier.citationПилипець Ю. О., Ярославський Я. І., Волосович О. С. Особливості використання Explainable ai у біомедичній обробці зображень: прозорість та інтерпретованість моделей // Оптико-електроннi iнформацiйно-енергетичнi технологiї. 2025. № 2. С. 210-214. URI: https://oeipt.vntu.edu.ua/index.php/oeipt/article/view/814.uk
dc.identifier.issn2311-2662
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/50635
dc.description.abstractArtificial intelligence (AI) has become deeply integrated into numerous scientific fields, including biomedical image and signal processing. The growing interest in this field has led to a surge in research, as evidenced by the sharp increase in scientific activity. Using large and diverse biomedical datasets, machine learning and deep learning models have transformed a variety of tasks - such as modeling, segmentation, registration, classification, and synthesis - often outperforming traditional methods. However, a major challenge remains: the difficulty of translating AI-derived results into clinically or biologically meaningful solutions, which limits the practical utility of these models. Explainable AI (XAI) seeks to bridge this gap by improving the interpretability of AI systems and offering transparent explanations for their decisions. More and more approaches are being developed to address this problem, and interest in the topic in the scientific community continues to grow.en
dc.description.abstractШтучний інтелект (ШІ) глибоко інтегрувався в численні наукові галузі, включаючи біомедичну обробку зображень і сигналів. Зростаючий інтерес до цієї галузі призвів до сплеску досліджень, про що свідчить різке зростання наукової активності. Використовуючи великі і різноманітні набори біомедичних даних, моделі машинного навчання і глибокого навчання трансформували різноманітні завдання - такі як моделювання, сегментація, реєстрація, класифікація і синтез - часто перевершуючи ефективність традиційних методів. Тим не менш, основна проблема залишається: складність перекладу результатів, отриманих за допомогою ШІ, в клінічно або біологічно значущі рішення, що обмежує практичну корисність цих моделей. Пояснюваний ШІ (Explainable AI, XAI) прагне подолати цю прогалину, покращуючи інтерпретованість систем ШІ та пропонуючи прозорі пояснення їхніх рішень. Для вирішення цієї проблеми розробляється все більше підходів, і інтерес до цієї теми в науковому співтоваристві продовжує зростати.uk
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofОптико-електроннi iнформацiйно-енергетичнi технологiї. № 2 : 210-214.uk
dc.relation.urihttps://oeipt.vntu.edu.ua/index.php/oeipt/article/view/814
dc.subjectШтучний інтелект (ШІ)uk
dc.subjectпояснювальний ШІ (XAI)uk
dc.subjectбіомедична обробка зображеньuk
dc.subjectбіомедична обробка сигналівuk
dc.subjectглибоке навчанняuk
dc.subjectмашинне навчанняuk
dc.subjectінтерпретованістьuk
dc.subjectпрозорість моделіuk
dc.subjectпідтримка прийняття клінічних рішеньuk
dc.subjectсегментаціяuk
dc.subjectкласифікаціяuk
dc.subjectмоделі на основі данихuk
dc.subjectArtificial Intelligence (AI)en
dc.subjectExplanatory AI (XAI)en
dc.subjectbiomedical image processingen
dc.subjectbiomedical signal processingen
dc.subjectdeep learningen
dc.subjectmachine learningen
dc.subjectinterpretabilityen
dc.subjectmodel transparencyen
dc.subjectclinical decision supporten
dc.subjectsegmentationen
dc.subjectclassificationen
dc.subjectdataen
dc.titleОсобливості використання Explainable AI у біомедичній обробці зображень: прозорість та інтерпретованість моделейuk
dc.title.alternativeFeatures of using EXPLAINABLE AI in biomedical image processing: transparency and interpretability of modelsen_US
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc681.784.7:615.849.19
dc.relation.referencesAlmpani S., Kiouvrekis Y., Stefaneas P., Frangos P. Computational argumentation for medical device regulatory classification // International Journal on Artificial Intelligence Tools. – 2022.en
dc.relation.referencesAydemir B., Hoffstetter L., та ін. Tempsal-uncovering temporal information for deep saliency prediction // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. – 2023.en
dc.relation.referencesBach S., Binder A., Montavon G., Klauschen F., Müller K.-R., Samek W. On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation // PloS one. – 2015.en
dc.relation.referencesBastani O., Kim C., Bastani H. Interpretability via model extraction // Fairness, Accountability, and Transparency in Machine Learning Workshop. – 2017.en
dc.relation.referencesBernal J., Mazo C. Transparency of artificial intelligence in healthcare: insights from professionals in computing and healthcare worldwide // Applied Sciences. – 2022.en
dc.relation.referencesBibal A., Lognoul M., De Streel A., Frénay B. Legal requirements on explainability in machine learning // Artificial Intelligence and Law. – 2021.en
dc.relation.referencesEuropean Data Protection Board. Guidelines on automated individual decision-making and profiling for the purposes of regulation 2016/679 (WP251rev.01). – 2018. – Режим доступу: https://ec.europa.eu/newsroom/article29/items/612053/en.en
dc.relation.referencesBondarenko A., Aleksejeva L., Jumutc V., Borisov A. Classification tree extraction from trained artificial neural networks // Procedia Computer Science. – 2017.en
dc.relation.referencesEuropean Commission. General Data Protection Regulation, 2016. – Режим доступу: https://eur-lex.europa.eu/eli/reg/2016/679/oj.en
dc.relation.referencesEuropean Commission. Regulation (EU) 2017/745 of the European Parliament and of the Council of 5 April 2017 on medical devices. – 2017. – Режим доступу: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32017R0745.en
dc.relation.referencesEuropean Commission. Artificial Intelligence Act. – 2024. – Режим доступу: https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=OJ:L_202401689.en
dc.relation.referencesDash S., Gunluk O., Wei D. Boolean decision rules via column generation // Advances in Neural Information Processing Systems. – 2018.en
dc.relation.referencesDhurandhar A., Chen P.-Y., Luss R., Tu C.-C., Ting P., Shanmugam K., Das P. Explanations based on the missing: Towards contrastive explanations with pertinent negatives // Advances in Neural Information Processing Systems. – 2018. – Vol. 31 (NIPS).en
dc.relation.referencesPavlov S. V. Information Technology in Medical Diagnostics //Waldemar Wójcik, Andrzej Smolarz, July 11, 2017 by CRC Press - 210 Pages.en
dc.relation.referencesWójcik W., Pavlov S., Kalimoldayev M. Information Technology in Medical Diagnostics II. London: (2019). Taylor & Francis Group, CRC Press, Balkema book. – 336 Pages.en
dc.relation.referencesY. Pylypets, S. Pavlov, Y. Yaroslavsky, S. Kostyuk, and M. Ursan, “Features of the application of telemedical technologies based on artificial intelligence in disaster medicine,” Opt-el. inf-energ. tech., vol. 48, no. 2, pp. 190–195, Nov 2024.en
dc.identifier.doihttps://doi.org/10.31649/1681-7893-2025-50-2-210-214


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію