dc.contributor.author | Микитин, Г. В. | uk |
dc.contributor.author | Руда, Х. С. | uk |
dc.contributor.author | Яремчук, Ю. Є. | uk |
dc.contributor.author | Mykytyn, H. | en |
dc.contributor.author | Ruda, Kh. | en |
dc.contributor.author | Yaremchuk, Yu. | en |
dc.date.accessioned | 2024-06-25T09:25:44Z | |
dc.date.available | 2024-06-25T09:25:44Z | |
dc.date.issued | 2024 | |
dc.identifier.citation | Микитин Г. В., Руда Х. С., Яремчук Ю. Є. Методологія безпеки нейромережевих інформаційних технологій виявлення deepfake-модифікацій біометричного зображення. Вісник Вінницького політехнічного інституту. 2024. № 1. С. 74-80. | uk |
dc.identifier.issn | 1997–9266 | |
dc.identifier.issn | 1997–9274 | |
dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/42893 | |
dc.description.abstract | Одним з функціональних векторів Стратегії кібербезпеки України є розроблення і впровадження систем захисту різних інформаційних платформ інфраструктури суспільства, зокрема створення безпечних технологій виявлення deepfake-модифікацій біометричного зображення на основі нейронних мереж у кіберпросторі. В роботі досліджено засади безпеки нейромережевих інформаційних технологій (ІТ) у просторі, проблеми deepfake-модифікацій за використання базового підходу до безпечного виявлення deepfake-модифікацій біометричного зображення та методології безпеки багаторівневої нейромережевої ІТ «ресурси – системи – процеси – мережі – управління» згідно з концепцією «об’єкт – загроза – захист». Базовий підхід об’єднує інформаційну нейромережеву технологію та інформаційну технологію підтримки прийняття рішень, структурованими за модульною архітектурою нейромережевої системи виявлення deepfake-модифікацій в просторі «попереднє оброблення даних опрацювання ознак — навчання класифікатора». Ядром методології безпеки ІТ є цілісність функціонування нейромережевої системи виявлення deepfake-модифікацій біометричного зображення обличчя людини і системи аналізу даних, що реалізують інформаційний процес «розділення відеофайлу на кадри — детекція, опрацювання ознак — оцінювання точності класифікатора зображень». Методологія безпеки багаторівневої нейромережевої ІТ ґрунтується на системному та синергетичному підходах, що уможливлюють побудову комплексної системи безпеки ІТ з урахуванням властивості емерджентності за умови впливу ймовірних цілеспрямованих загроз і застосування новітніх технологій протидії на апаратному і програмному рівнях. Запропонована комплексна система безпеки інформаційного процесу виявлення deepfake-модифікацій біометричного зображення охоплює апаратнопрограмні засоби відповідно до сегментів: автоматизованої оцінки точності класифікатора; виявлення deepfake-модифікацій в режимі реального часу; послідовного оброблення зображень; оцінювання точності класифікації з використанням хмарних обчислень. | uk |
dc.description.abstract | One of the functional vectors of the Cybersecurity Strategy of Ukraine is the development and implementation of protection systems for various information platforms in society's infrastructure, particularly focusing on creating safe technologies to detect deepfake-modifications of biometric images, based on neural networks in cyberspace. This paper presents the security principles of neural network information technologies (IT) within the context of deepfake-modifications. It delineates a basic approach for safely detecting deepfake-modifications in biometric images and outlines a security methodology for multi-level neural network IT systems, organized according to the "object – threat – protection" concept. The basic approach
integrates information neural network technology with decision support IT, structured by a modular architecture for detecting
deepfake modifications. This architecture operates across the stages of "pre-processing of feature data – classifier training."
The core of the IT security methodology emphasizes the integrity of neural network systems for detecting deepfakemodifications in biometric images, coupled with data analysis systems that execute the information process of "dividing
video files into frames – detecting and processing features – evaluating the accuracy of image classifiers. The security
methodology for multi-level neural network IT relies on systemic and synergistic approaches to construct a comprehensive IT security system. This system accounts for the possibility of emergent threats and incorporates cutting-edge countermeasure technologies at both hardware and software levels. The proposed comprehensive security system for detecting deepfake-modifications in biometric images encompasses hardware and software tools across several segments: automated classifier accuracy assessment, real-time deepfake-modification detection, sequential image processing, and classification accuracy evaluation utilizing cloud computing. | en |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Вісник Вінницького політехнічного інституту. № 1 : 74-80. | uk |
dc.relation.uri | https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/2980 | |
dc.subject | інтелектуалізація | uk |
dc.subject | кібербезпека | uk |
dc.subject | біометричне зображення | uk |
dc.subject | deepfake | en |
dc.subject | інформаційна технологія | uk |
dc.subject | нейронні мережі | uk |
dc.subject | система виявлення | uk |
dc.subject | базовий підхід | uk |
dc.subject | методологія безпеки | uk |
dc.subject | комплексна система безпеки | uk |
dc.subject | intellectualization | en |
dc.subject | cyber security | en |
dc.subject | biometric image | en |
dc.subject | information technology | en |
dc.subject | neural networks | en |
dc.subject | detection system | en |
dc.subject | basic approach | en |
dc.subject | security methodology | en |
dc.subject | comprehensive security system | en |
dc.title | Методологія безпеки нейромережевих інформаційних технологій виявлення deepfake-модифікацій біометричного зображення | uk |
dc.title.alternative | Security methodology of neural network-based information technologies for detection of deepfake-modifications of biometric image | en |
dc.type | Article | |
dc.identifier.udc | 004.054 | |
dc.relation.references | H. Lasi, P. Fettke, H.G. Kemper, T. Feld, and M. Hoffmann, “Industry 4.0,” Business & Information Systems Engineering, no. 6, pp. 239-242, 2014. https://doi.org/10.1007/s12599-014-0334-4 . | en |
dc.relation.references | Стратегія кібербезпеки України (2021—2025 року). [Електронний ресурс]. Режим доступу:
https://www.rnbo.gov.ua/files/2021/STRATEGIYA%20KYBERBEZPEKI/proekt%20strategii_kyberbezpeki_Ukr.pdeepfake . | uk |
dc.relation.references | Directorate-General for Communications Networks. Content and Technology, Cyber resilience act: new EU cybersecurity
rules ensure more secure hardware and software products, European Commission, 2022. Available:
https://data.europa.eu/doi/10.2759/543836 . | en |
dc.relation.references | Y. Shtefaniuk, and I. Opirskyy, “Comparative Analysis of the Efficiency of Modern Fake Detection Algorithms in Scope
of Information Warfare,” in 2021 11th IEEE International Conference on Intelligent Data Acquisition and Advanced Computing
Systems: Technology and Applications (IDAACS), pp. 207-211, 2021. https://doi.org/10.1109/IDAACS53288.2021.9660924.1 . | en |
dc.relation.references | Ю. Я. Бобало, В. Б. Дудикевич, і Г. В. Микитин. Стратегічна безпека системи «об’єкт – інформаційна технологія». Львів, Україна: вид-во НУ «Львівська політехніка», 2020. | uk |
dc.relation.references | M. Choraś, M. Pawlicki, D. Puchalski, and R. Kozik, “Machine Learning – The Results Are Not the only Thing that Matters! What About Security, Explainability and Fairness?” in Lecture Notes in Computer Science, vol. 12140. Springer, Cham.
https://doi.org/10.1007/978-3-030-50423-6_46 . | en |
dc.relation.references | N. Papernot, P. McDaniel, A. Sinha, and M. P. Wellman, “SoK: Security and Privacy in Machine Learning,” in
2018 IEEE European Symposium on Security and Privacy (EuroS&P), London, UK, 2018, pp. 399-414.
https://doi.org/10.1109/EuroSP.2018.00035 . | en |
dc.relation.references | H. Bae, J. Jang, D. Jung, H. Jang, H. Ha, and S. Yoon. “Security and Privacy Issues in Deep Learning,” 2018 ArXiv,
abs/1807.11655. | en |
dc.relation.references | Q. Xu, M. Tanvir Arafin, and G. Qu, “Security of Neural Networks from Hardware Perspective: A Survey and Beyond,”
in 2021 26th Asia and South Pacific Design Automation Conference (ASP-DAC), Tokyo, Japan, 2021, pp. 449-454. | en |
dc.relation.references | X. Cao, and N. Z. Gong. “Understanding the Security of Deepfake Detection,” in: Digital Forensics and Cyber Crime.
ICDF2C 2021. Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering,
vol. 441. Springer, Cham, 2022. | en |
dc.relation.references | В. Б. Дудикевич, Г. В. Микитин, і Х. С. Руда, «Застосування глибокого навчання для виявлення deepfakeмодифікацій біометричного зображення,” Сучасна спеціальна техніка, № 1, c. 13-22, 2022. | uk |
dc.relation.references | W. J. Youden, “Index for rating diagnostic tests,” Cancer, no. 3, pp. 32-35, 1950. https://doi.org/ 10.1002/1097-
0142(1950)3:1<32::aid-cncr2820030106>3.0.co;2-3. PMID 15405679. | en |
dc.relation.references | E. Altuncu, V. Franqueira, and L. Shujun, Deepfake: Definitions, Performance Metrics and Standards, Datasets and
Benchmarks, and a Meta-Review, 2022. 10.48550/arXiv.2208.10913 . | en |
dc.relation.references | C2PA. 2020. Coalition for Content Provenance and Authenticity. [Electronic resource]. Available: https://c2pa.org/ . | en |
dc.identifier.doi | https://doi.org/10.31649/1997-9266-2024-172-1-74-80 | |