Показати скорочену інформацію

dc.contributor.authorМикитин, Г. В.uk
dc.contributor.authorРуда, Х. С.uk
dc.contributor.authorЯремчук, Ю. Є.uk
dc.contributor.authorMykytyn, H.en
dc.contributor.authorRuda, Kh.en
dc.contributor.authorYaremchuk, Yu.en
dc.date.accessioned2024-06-25T09:25:44Z
dc.date.available2024-06-25T09:25:44Z
dc.date.issued2024
dc.identifier.citationМикитин Г. В., Руда Х. С., Яремчук Ю. Є. Методологія безпеки нейромережевих інформаційних технологій виявлення deepfake-модифікацій біометричного зображення. Вісник Вінницького політехнічного інституту. 2024. № 1. С. 74-80.uk
dc.identifier.issn1997–9266
dc.identifier.issn1997–9274
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/42893
dc.description.abstractОдним з функціональних векторів Стратегії кібербезпеки України є розроблення і впровадження систем захисту різних інформаційних платформ інфраструктури суспільства, зокрема створення безпечних технологій виявлення deepfake-модифікацій біометричного зображення на основі нейронних мереж у кіберпросторі. В роботі досліджено засади безпеки нейромережевих інформаційних технологій (ІТ) у просторі, проблеми deepfake-модифікацій за використання базового підходу до безпечного виявлення deepfake-модифікацій біометричного зображення та методології безпеки багаторівневої нейромережевої ІТ «ресурси – системи – процеси – мережі – управління» згідно з концепцією «об’єкт – загроза – захист». Базовий підхід об’єднує інформаційну нейромережеву технологію та інформаційну технологію підтримки прийняття рішень, структурованими за модульною архітектурою нейромережевої системи виявлення deepfake-модифікацій в просторі «попереднє оброблення даних опрацювання ознак — навчання класифікатора». Ядром методології безпеки ІТ є цілісність функціонування нейромережевої системи виявлення deepfake-модифікацій біометричного зображення обличчя людини і системи аналізу даних, що реалізують інформаційний процес «розділення відеофайлу на кадри — детекція, опрацювання ознак — оцінювання точності класифікатора зображень». Методологія безпеки багаторівневої нейромережевої ІТ ґрунтується на системному та синергетичному підходах, що уможливлюють побудову комплексної системи безпеки ІТ з урахуванням властивості емерджентності за умови впливу ймовірних цілеспрямованих загроз і застосування новітніх технологій протидії на апаратному і програмному рівнях. Запропонована комплексна система безпеки інформаційного процесу виявлення deepfake-модифікацій біометричного зображення охоплює апаратнопрограмні засоби відповідно до сегментів: автоматизованої оцінки точності класифікатора; виявлення deepfake-модифікацій в режимі реального часу; послідовного оброблення зображень; оцінювання точності класифікації з використанням хмарних обчислень.uk
dc.description.abstractOne of the functional vectors of the Cybersecurity Strategy of Ukraine is the development and implementation of protection systems for various information platforms in society's infrastructure, particularly focusing on creating safe technologies to detect deepfake-modifications of biometric images, based on neural networks in cyberspace. This paper presents the security principles of neural network information technologies (IT) within the context of deepfake-modifications. It delineates a basic approach for safely detecting deepfake-modifications in biometric images and outlines a security methodology for multi-level neural network IT systems, organized according to the "object – threat – protection" concept. The basic approach integrates information neural network technology with decision support IT, structured by a modular architecture for detecting deepfake modifications. This architecture operates across the stages of "pre-processing of feature data – classifier training." The core of the IT security methodology emphasizes the integrity of neural network systems for detecting deepfakemodifications in biometric images, coupled with data analysis systems that execute the information process of "dividing video files into frames – detecting and processing features – evaluating the accuracy of image classifiers. The security methodology for multi-level neural network IT relies on systemic and synergistic approaches to construct a comprehensive IT security system. This system accounts for the possibility of emergent threats and incorporates cutting-edge countermeasure technologies at both hardware and software levels. The proposed comprehensive security system for detecting deepfake-modifications in biometric images encompasses hardware and software tools across several segments: automated classifier accuracy assessment, real-time deepfake-modification detection, sequential image processing, and classification accuracy evaluation utilizing cloud computing.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 1 : 74-80.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/2980
dc.subjectінтелектуалізаціяuk
dc.subjectкібербезпекаuk
dc.subjectбіометричне зображенняuk
dc.subjectdeepfakeen
dc.subjectінформаційна технологіяuk
dc.subjectнейронні мережіuk
dc.subjectсистема виявленняuk
dc.subjectбазовий підхідuk
dc.subjectметодологія безпекиuk
dc.subjectкомплексна система безпекиuk
dc.subjectintellectualizationen
dc.subjectcyber securityen
dc.subjectbiometric imageen
dc.subjectinformation technologyen
dc.subjectneural networksen
dc.subjectdetection systemen
dc.subjectbasic approachen
dc.subjectsecurity methodologyen
dc.subjectcomprehensive security systemen
dc.titleМетодологія безпеки нейромережевих інформаційних технологій виявлення deepfake-модифікацій біометричного зображенняuk
dc.title.alternativeSecurity methodology of neural network-based information technologies for detection of deepfake-modifications of biometric imageen
dc.typeArticle
dc.identifier.udc004.054
dc.relation.referencesH. Lasi, P. Fettke, H.G. Kemper, T. Feld, and M. Hoffmann, “Industry 4.0,” Business & Information Systems Engineering, no. 6, pp. 239-242, 2014. https://doi.org/10.1007/s12599-014-0334-4 .en
dc.relation.referencesСтратегія кібербезпеки України (2021—2025 року). [Електронний ресурс]. Режим доступу: https://www.rnbo.gov.ua/files/2021/STRATEGIYA%20KYBERBEZPEKI/proekt%20strategii_kyberbezpeki_Ukr.pdeepfake .uk
dc.relation.referencesDirectorate-General for Communications Networks. Content and Technology, Cyber resilience act: new EU cybersecurity rules ensure more secure hardware and software products, European Commission, 2022. Available: https://data.europa.eu/doi/10.2759/543836 .en
dc.relation.referencesY. Shtefaniuk, and I. Opirskyy, “Comparative Analysis of the Efficiency of Modern Fake Detection Algorithms in Scope of Information Warfare,” in 2021 11th IEEE International Conference on Intelligent Data Acquisition and Advanced Computing Systems: Technology and Applications (IDAACS), pp. 207-211, 2021. https://doi.org/10.1109/IDAACS53288.2021.9660924.1 .en
dc.relation.referencesЮ. Я. Бобало, В. Б. Дудикевич, і Г. В. Микитин. Стратегічна безпека системи «об’єкт – інформаційна технологія». Львів, Україна: вид-во НУ «Львівська політехніка», 2020.uk
dc.relation.referencesM. Choraś, M. Pawlicki, D. Puchalski, and R. Kozik, “Machine Learning – The Results Are Not the only Thing that Matters! What About Security, Explainability and Fairness?” in Lecture Notes in Computer Science, vol. 12140. Springer, Cham. https://doi.org/10.1007/978-3-030-50423-6_46 .en
dc.relation.referencesN. Papernot, P. McDaniel, A. Sinha, and M. P. Wellman, “SoK: Security and Privacy in Machine Learning,” in 2018 IEEE European Symposium on Security and Privacy (EuroS&P), London, UK, 2018, pp. 399-414. https://doi.org/10.1109/EuroSP.2018.00035 .en
dc.relation.referencesH. Bae, J. Jang, D. Jung, H. Jang, H. Ha, and S. Yoon. “Security and Privacy Issues in Deep Learning,” 2018 ArXiv, abs/1807.11655.en
dc.relation.referencesQ. Xu, M. Tanvir Arafin, and G. Qu, “Security of Neural Networks from Hardware Perspective: A Survey and Beyond,” in 2021 26th Asia and South Pacific Design Automation Conference (ASP-DAC), Tokyo, Japan, 2021, pp. 449-454.en
dc.relation.referencesX. Cao, and N. Z. Gong. “Understanding the Security of Deepfake Detection,” in: Digital Forensics and Cyber Crime. ICDF2C 2021. Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, vol. 441. Springer, Cham, 2022.en
dc.relation.referencesВ. Б. Дудикевич, Г. В. Микитин, і Х. С. Руда, «Застосування глибокого навчання для виявлення deepfakeмодифікацій біометричного зображення,” Сучасна спеціальна техніка, № 1, c. 13-22, 2022.uk
dc.relation.referencesW. J. Youden, “Index for rating diagnostic tests,” Cancer, no. 3, pp. 32-35, 1950. https://doi.org/ 10.1002/1097- 0142(1950)3:1<32::aid-cncr2820030106>3.0.co;2-3. PMID 15405679.en
dc.relation.referencesE. Altuncu, V. Franqueira, and L. Shujun, Deepfake: Definitions, Performance Metrics and Standards, Datasets and Benchmarks, and a Meta-Review, 2022. 10.48550/arXiv.2208.10913 .en
dc.relation.referencesC2PA. 2020. Coalition for Content Provenance and Authenticity. [Electronic resource]. Available: https://c2pa.org/ .en
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2024-172-1-74-80


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію