Show simple item record

dc.contributor.authorХома, Д. Ю.uk
dc.date.accessioned2026-01-30T10:17:44Z
dc.date.available2026-01-30T10:17:44Z
dc.date.issued2025uk
dc.identifier.citationХома Д. Ю. Модифікація стеганографічної моделі STEGANOGAN на основі новітніх генеративних архітектур // Наукові праці Вінницького національного технічного університету. Електрон. текст. дані. 2025. № 2. URI: https://praci.vntu.edu.ua/index.php/praci/article/view/835.uk
dc.identifier.issn2307-5376uk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/50549
dc.description.abstractУ статті розглянуто створення стегозображень за допомогою методів на основі штучного інтелекту. Проведено огляд предметної області стеганографії з акцентом на нейромережеві підходи, визначено ключові метрики для оцінки стеганографічних моделей. Представлено три варіанти архітектури SteganoGAN на базі різних генеративних нейромереж, які навчено на даних із різними рівнями глибини корисного навантаження. Дослідження зосереджено на модифікації та вивченні архітектур DCGAN, WGAN і WGAN-GP як основи для створення SteganoGAN-моделей, здатних вбудовувати приховану інформацію в зображення із заданим корисним навантаженням . Усі моделі адаптовано до специфіки стеганографічного завдання шляхом інтеграції спеціалізованого декодувального модуля, застосування функцій втрат, що враховують якість відновлення повідомлення та візуальну схожість між контейнером і прикриттям, а також варіативності рівня шуму, що подається на вхід генератору залежно від заданого обсягу навантаження. Важливу роль у навчанні відіграє підбір співвідношення між втратами генератора та декодера, що забезпечує баланс між непомітністю та точністю відновлення. В експериментальній частині моделі перевірялись у контрольованих умовах із фіксованими параметрами тренування, а також із різним корисним навантаженням, що дозволило простежити реакцію моделей на зміну обсягу прихованої інформації. Окрему увагу приділено узагальненню методики оцінювання моделей за допомогою кількісних метрик, серед яких використовувалися показники точності декодування, RS-BPP (відношення кількості переданої інформації до розміру зображення), з урахуванням метрик структурної подібності (SSIM) та пікового відношення сигналу до шуму (PSNR). Виконано порівняльний аналіз отриманих стегозображень з точки зору різного корисного навантаження. На основі отриманих даних визначено сильні та слабкі сторони підходів, а також окреслено основні завдання для подальших досліджень у галузі стеганографії.uk_UA
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofНаукові праці Вінницького національного технічного університету. № 2.uk
dc.relation.urihttps://praci.vntu.edu.ua/index.php/praci/article/view/835
dc.subjectстеганографіяuk
dc.subjectгенеративна змагальна мережаuk
dc.subjectнейронна мережаuk
dc.subjectвідстань Вассерштейнаuk
dc.subjectштраф градієнтуuk
dc.subjectкорисне навантаженняuk
dc.subjectсхожістьuk
dc.subjectкодування Ріда-Соломонаuk
dc.subjectкритикuk
dc.subjectобкладинкаuk
dc.subjectстегозображенняuk
dc.titleМодифікація стеганографічної моделі STEGANOGAN на основі новітніх генеративних архітектурuk
dc.typeArticle, professional native edition
dc.typeArticle
dc.identifier.udc004.8:004.056uk
dc.relation.referenceshttps://praci.vntu.edu.ua/index.php/praci/article/view/835uk
dc.relation.referencesHoluband V., FridrichJ.Designing steganographic distortion using directional filters. WIFS 2012 –Proceedings of the 2012 IEEE International Workshop on Information Forensics and Security. 2012. P. 234–239. DOI: 10.1109/WIFS.2012.6412655.en
dc.relation.referencesPevný T., Filler T., Bas P. Using High-Dimensional Image Models to Perform Highly Undetectable Steganography. Information Hiding. 2010. Vol. 6387 LNCS. P. 161–177. DOI: 10.1007/978-3-642-16435-4_13.en
dc.relation.referencesHolub V., Fridrich J., Denemark T. Universal distortion function for steganography in an arbitrary domain. EURASIP J InfSecur. 2014. Vol. 2014.DOI: 10.1186/1687-417X-2014-1.en
dc.relation.referencesGenerative Adversarial Networks / I. J. Goodfellow et al. SciRobot. 2014. Vol. 3, No January. P. 2672–2680. URL: https://arxiv.org/abs/1406.2661v1(dateofaccess: 16.12.2024).en
dc.relation.referencesGenerative Adversarial Networks for Synthetic Data Generation: A Comparative Study / C. Littleet al. Arxiv. org. Dec. 2021. URL: https://arxiv.org/abs/2112.01925v1(dateofaccess: 19.03.2025).en
dc.relation.referencesO’Shea K., Nash R. An Introduction to Convolutional Neural Networks. Int J Res Appl Sci Eng Technol. Nov. 2015. Vol. 10, No 12.P. 943–947.DOI: 10.22214/ijraset.2022.47789.en
dc.relation.referencesArjovsky M., Chintala S., Bottou L.Wasserstein GAN.Jan. 2017. URL: https://arxiv.org/abs/1701.07875v3(dateofaccess: 04.12.2024).en
dc.relation.referencesRead-through: Wasserstein GAN. URL: https://www.alexirpan.com/2017/02/22/wasserstein-gan.html#(dateofaccess: 21.12.2024).en
dc.relation.referencesOpenaiL. W.From GAN to WGAN.Apr. 2019. URL: https://arxiv.org/abs/1904.08994v1(dateofaccess: 21.12.2024).en
dc.relation.referencesImproved Training of Wasserstein GANs / I. Gulrajaniet al. Adv Neural Inf Process Syst. Mar. 2017.Vol. 2017-December. P. 5768–5778. URL: https://arxiv.org/abs/1704.00028v3(dateofaccess: 04.12.2024).en
dc.relation.referencesStegano GAN: High Capacity Image Steganography with GANs / K. A. Zhanget al. Jan. 2019. DOI: 10.48550/arXiv.1901.03892.en
dc.relation.referencesBaluja S. Hiding Images in Plain Sight: Deep Steganography. Neural Information Processing Systems. 2017. URL: https://proceedings.neurips.cc/paper_files/paper/2017/file/838e8afb1ca34354ac209f53d90c3a43-Paper.pdf%20 (date of access: 05.11.2024).en
dc.relation.referencesDeep residual learning for image recognition / K. Heet al. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Dec. 2016. Vol. 2016-December. P. 770–778.DOI: 10.1109/CVPR.2016.90.en
dc.relation.referencesDensely connected convolutional networks / G. Huanget al. Proceedings -30th IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017. Nov. 2017. Vol. 2017-January. P. 2261–2269. DOI: 10.1109/CVPR.2017.243.en
dc.relation.referencesAgustssonand E., Timofte R. NTIRE 2017 Challenge on Single Image Super-Resolution: Dataset and Study. IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. Aug. 2017. Vol. 2017-July. P. 1122–1131. DOI: 10.1109/CVPRW.2017.150.en
dc.relation.referencesWengand W., ZhuX. U-Net: Convolutional Networks for Biomedical Image Segmentation. IEEE Access. May 2015. Vol. 9. P. 16591–16603.DOI: 10.1109/ACCESS.2021.3053408.en
dc.relation.referencesReversible image steganography scheme based on a U-net structure / X. Duanet al. Jan. 2019. Volume 7. P. 9314–9323. DOI: 10.1109/ACCESS.2019.2891247.en
dc.relation.referencesHybrid Deep Learning Model Based on GAN and RESNET for Detecting Fake Faces / S. Safwat et al. IEEE Access. 2024. Vol. 12. P. 86391–86402. DOI: 10.1109/ACCESS.2024.3416910.en
dc.relation.referencesIdentity Mappings in Deep Residua l Networks / K. Heet al. Lecture Notesin Computer Science (including subseries Lecture Notesin Artificial Intelligence and Lecture Notesin Bioinformatics). Mar. 2016. Vol. 9908 LNCS. P. 630–645. DOI: 10.1007/978-3-319-46493-0_38.en
dc.relation.referencesLedigetal C. Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network. Proceedings -30th IEEE Conferenceon Computer Vision and Pattern Recognition, CVPR 2017. Sep. 2016. Vol. 2017-January. P. 105–114. DOI: 10.1109/CVPR.2017.19.en
dc.identifier.doihttps://doi.org/10.31649/2307-5376-2025-2-155-170uk
dc.identifier.orcidhttps://orcid.org/uk


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record