dc.contributor.author | Кулик, Л. Р. | uk |
dc.contributor.author | Мокін, О. Б. | uk |
dc.date.accessioned | 2024-04-30T07:17:39Z | |
dc.date.available | 2024-04-30T07:17:39Z | |
dc.date.issued | 2024 | |
dc.identifier.citation | Кулик Л. Р., Мокін О. Б. Проблема консистентності трансформації стилю для дифузійних моделей глибокого навчання. Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. Електрон. текст. дані. 2024. URI: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20041. | uk |
dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/41765 | |
dc.description.abstract | Показано актуальність проблеми забезпечення консистентності трансформації стилю зображень, згенерованих за допомогою дифузійних моделей глибокого навчання. Наведено приклади існуючих підходів забезпечення консистентної генерування та трансформації стилю, їх переваги та недоліки. Запропоновано комбінований підхід, що дозволяє досягти кращої консистентності трансформації стилю під час генерування зображення, посилити контроль над його стилем та зменшити кількість спотворень (артефактів). | uk |
dc.description.abstract | This paper highlights the relevance of the problem of ensuring consistency in the style transformation of images generated using deep-learning diffusion models. It presents examples of existing approaches to achieving consistent generation and style transformation, along with their advantages and disadvantages. The proposed combined approach allows for better consistency in style transformation during image generation, enhances control over its style, and reduces the number of image distortions (artifacts). | en |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20041 | |
dc.subject | глибоке навчання | uk |
dc.subject | дифузійні моделі | uk |
dc.subject | консистентність генерування | uk |
dc.subject | трансформація стилю | uk |
dc.subject | deep learning | en |
dc.subject | diffusion generative models | en |
dc.subject | generation consistency | en |
dc.subject | style transformation | en |
dc.title | Проблема консистентності трансформації стилю для дифузійних моделей глибокого навчання | uk |
dc.type | Thesis | |
dc.identifier.udc | 004.89 | |
dc.relation.references | Jonathan Ho, Ajay Jain, Pieter Abbeel “Denoising Diffusion Probabilistic Models” arXiv:2006.11239 [cs.LG], Jun. 2020 | en |
dc.relation.references | Nataniel Ruiz, Yuanzhen Li, Varun Jampani, Yael Pritch, Michael Rubinstein, Kfir Aberman “DreamBooth: Fine Tuning
Text-to-Image Diffusion Models for Subject-Driven Generation” arXiv:2208.12242 [cs.CV], Aug. 2022 | en |
dc.relation.references | Tim Dettmers, Artidoro Pagnoni, Ari Holtzman, Luke Zettlemoyer “QLoRA: Efficient Finetuning of Quantized LLMs”
arXiv:2305.14314 [cs.LG], May. 2023. | en |
dc.relation.references | Lvmin Zhang, Maneesh Agrawala “Adding Conditional Control to Text-to-Image Diffusion Models” arXiv:2302.05543
[cs.CV], Feb. 2023. | en |
dc.relation.references | Inbar Huberman-Spiegelglas, Tomer Michaeli “An Edit Friendly DDPM Noise Space: Inversion and Manipulations” arXiv:
2304.06140 [cs.CV], Apr. 2023. | en |
dc.relation.references | Gaurav Parmar, Krishna Kumar Singh “Zero-shot Image-to-Image Translation” arXiv:2302.03027 [cs.CV], Feb. 2023 | en |
dc.relation.references | Amir Hertz, Andrey Voynov “Style Aligned Image Generation via Shared Attention” arXiv:2312.02133 [cs.CV], Jan. 2024 | en |
dc.relation.references | Dustin Podell, Zion English “SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis” arXiv:
2307.01952 [cs.CV], Jul. 2023. | en |