Показати скорочену інформацію

dc.contributor.authorМарчук, М. Б.uk
dc.contributor.authorЛукічов, В. В.uk
dc.contributor.authorMarchuk, M. B.en
dc.contributor.authorLukichov, V. V.en
dc.date.accessioned2025-09-11T08:48:14Z
dc.date.available2025-09-11T08:48:14Z
dc.date.issued2025
dc.identifier.citationМарчук М. Б., Лукічов В. В. Аналіз методів та засобів активного захисту від Deepfake // Вісник Вінницького політехнічного інституту. 2025. № 3. С. 126–132.uk
dc.identifier.issn1997-9266
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/49080
dc.description.abstractThe development of artificial intelligence has been one of the main trends in recent years. Although this technology serves for the benefit of humanity, it can also be used for malicious purposes, such as spreading disinformation or blackmail. For the realization of the above-mentioned purposes, technologies are often used to create so-called Deepfake content. The article describes the results of a study of methods and means for active protection against the malicious use of Deepfake. Deepfake is a general name for images, video or audio files, created by means of artificial neural networks and show how a person speaks or performs something that he did not perform in reality. As a result of using artificial intelligence such materials seem to be real for persons who do not know their origin. Without usage of special tools it will be difficult to distinguish the real image from faked one. Technologies of the content generation by means of artificial intelligence, in particular Deepfake, are often used for the creation of the materials, used for disinformation campaigns, blackmail or other malicious purposes. In this connection, there is a need to develop means for protection against malicious use of Deepfake. Passive protection methods based on the ability of machine learning models to distinguish authentic content from generated content depend on the architectures of models for generating Deepfake content, so they quickly become outdated as the latter develop more rapidly. Therefore, there is a need to develop active protection methods based on the use of watermarks to track them or to interfere with the operation of Deepfake generation models. The paper describes and analyzes the existing active methods of protection against Deepfake, as well as analyzes the areas of their target applications, their advantages and disadvantages, technical characteristics, and suggests directions for further research in this area. Special attention is paid to the protection methods based on steganography and watermarking. The advantages of active protection methods over passive ones are considered.en
dc.description.abstractРозвиток штучного інтелекту є одним з головних трендів останніх років. Хоч така технологія багато в чому служить на благо людства, але вона може використовуватись і для зловмисних дій, як от поширення дезінформації чи шантаж. Для реалізації цих злочинних дій часто застосовуються технології для створення так званого Deepfake-контенту. Deepfake — це загальна назва для зображень, відео- та аудіофайлів, створених за допомогою штучних нейронних мереж, які зображають, як певна людина говорить чи вчиняє щось, чого в дійсності ніколи не було. Завдяки використанню штучного інтелекту такі матеріали здаються справжніми особам, що не знають про їхнє походження. Без використання спеціальних технічних засобів людям важко відрізнити справжнє зображення від підробленого. Технології генерації контенту за допомогою штучного інтелекту, зокрема Deepfake, все частіше застосовуються для створення матеріалів, які використовуються для дезінформаційних кампаній, шантажу та інших зловмисних дій. В зв’язку з цим існує необхідність в розробці засобів для захисту від зловмисного використання Deepfake. Пасивні методи захисту, які ґрунтуються на можливості моделей машинного навчання відрізнити автентичний контент від згенерованого, залежать від архітектур моделей для генерації Deepfake-контенту, тому швидко застарівають з темпом розвитку останніх. Тому існує необхідність в розвитку активних методів захисту, які ґрунтуються на використанні водяних знаків з метою їх відслідковування або перешкоджають роботі моделей для генерації Deepfake. У роботі подано опис та аналіз наявних активних методів захисту від Deepfake, а також проаналізовано напрямки їх цільових застосувань, їхні переваги та недоліки, технічні характеристики, і запропоновано напрямки для подальших досліджень у цій галузі. Активна увага приділяється засобам захисту, що ґрунтуються на методах стеганографії та із застосуванням водяних знаків. Розглянуто переваги активних методів захисту над пасивними.uk
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofВісник Вінницького політехнічного інституту. № 3 : 126-132.uk
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/3269
dc.subjectDeepfakeen
dc.subjectстеганографіяuk
dc.subjectводяні знакиuk
dc.subjectштучний інтелектuk
dc.subjectмашинне навчанняuk
dc.subjectінформаційна атакаuk
dc.subjectзахист інформаціїuk
dc.subjectsteganographyen
dc.subjectwatermarkingen
dc.subjectartificial intelligenceen
dc.subjectmachine learningen
dc.subjectinformation attacken
dc.subjectinformation securityen
dc.titleАналіз методів та засобів активного захисту від Deepfakeuk
dc.title.alternativeAnalysis of Methods and Tools of Proactive Defense against Deepfakeen
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc004.8
dc.relation.referencesPause Giant AI Experiments: An Open Letter. [Electronic resource]. Available: https://futureoflife.org/open-letter/pause-giant-ai-experiments . Accessed: 26.03.2025.en
dc.relation.referencesSix Months Ago Elon Musk Called for a Pause on AI. Instead Development Sped Up. [Electronic resource]. Available: https://www.wired.com/story/fast-forward-elon-musk-letter-pause-ai-development/ . Accessed: 26.03.202en
dc.relation.referencesZ. Wang, E. P. Simoncelli, and A. Bovik, “Multiscale structural similarity for image quality assessment,” The Thrity-Seventh Asilomar Conference on Signals, Systems & Computers, 2003, 1398 p.en
dc.relation.referencesR. Wang, F. Juefei-Xu., M. Luo., Y. Liu., and L. Wang, “FakeTagger: Robust Safeguards against DeepFake Dissemina-tion via Provenance Tracking,”Proceedings of the 29th ACM International Conference on Multimedia, 2020en
dc.relation.referencesE. L. Josephs, C. L. Fosco, and A. Oliva, “Artifact magnification on deepfake videos increases human detection and sub-jective confidence,” ArXiv, 2023.en
dc.relation.referencesS. D. Bray, S. D. Johnson, and B. Kleinberg, “Testing Human Ability To Detect Deepfake Images of Human Faces,” Journal of Cybersecurity, 2022en
dc.relation.referencesT. Wang, X. Liao, K. Chow, X. Lin, and Y.Wang, “Deepfake Detection: A Comprehensive Survey from the Reliability Perspective,” ACM Computing Surveys, 2022, 58 p.en
dc.relation.referencesY. Mirsky, and W. Lee, “The Creation and Detection of Deepfakes: A Survey,” ACM Computing Surveys (CSUR), 2021. v. 54, 1 p.en
dc.relation.referencesH. Nguyen-Le, V. Tran, D. Nguyen, and N. Le-Khac, “Deepfake Generation and Proactive Deepfake Defense,” A Com-prehensive Survey, 2024, 1 p. (Preprint)en
dc.relation.referencesDeepfake Cases Surge in Countries Holding 2024 Elections, Sumsub Research Shows. [Electronic resource]. Available: https://sumsub.com/newsroom/deepfake-cases-surge-in-countries-holding-2024-elections-sumsub-research-shows/ . Accessed: 26.03.2025.en
dc.relation.referencesA. Malanowska, W. Mazurczyk, T. K. Araghi, and D. Megías, “Digital Watermarking — A Meta-Survey and Tech-niques for Fake News Detection,” IEEE Access, 2024, vol. 12, 36311 pen
dc.relation.referencesМ. В. Рябокінь, Є. В. Котух, і О. І. «Папилев, Вплив технології Deepfake на Fintech сектор: поточний стан в Ук-раїні та стратегії запобігання кіберзлочинності,» Проблеми і перспективи економікита управління, No 1 (37), с. 310-328,2024uk
dc.relation.referencesP. Neekhara, S. Hussain, X. Zhang, K. Huang, “FaceSigns: Semi-fragile Watermarks for Media Authentication,”ACM Transactions on Multimedia Computing, Communications and Applications, vol. 20, pp. 1-21, 2024en
dc.relation.referencesY. Zhao, B. Liu, M. Ding, B. Liu, T. Zhu, and X. Yu, “Proactive Deepfake Defence via Identity Watermarking,”Pro-ceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2023, pp. 4602-4611en
dc.relation.referencesS. Lan, K. Liu, Y. Zhao, C. Yang, “Facial Features Matter: a Dynamic Watermark based Proactive Deepfake Detection Approach,” 2024, Preprint arXiven
dc.identifier.doihttps://doi.org/10.31649/1997-9266-2025-180-3-126-132


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію