dc.contributor.author | Кулик, Л. Р. | uk |
dc.contributor.author | Мокін, О. Б. | uk |
dc.date.accessioned | 2024-04-30T07:17:39Z | |
dc.date.available | 2024-04-30T07:17:39Z | |
dc.date.issued | 2024 | |
dc.identifier.citation | Кулик Л. Р., Мокін О. Б. Проблема консистентності трансформації стилю для дифузійних моделей глибокого навчання. Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. Електрон. текст. дані. 2024. URI: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20041. | uk |
dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/41765 | |
dc.description.abstract | Показано актуальність проблеми забезпечення консистентності трансформації стилю зображень, згенерованих за допомогою дифузійних моделей глибокого навчання. Наведено приклади існуючих підходів забезпечення консистентної генерування та трансформації стилю, їх переваги та недоліки. Запропоновано комбінований підхід, що дозволяє досягти кращої консистентності трансформації стилю під час генерування зображення, посилити контроль над його стилем та зменшити кількість спотворень (артефактів). | uk |
dc.description.abstract | This paper highlights the relevance of the problem of ensuring consistency in the style transformation of images generated using deep-learning diffusion models. It presents examples of existing approaches to achieving consistent generation and style transformation, along with their advantages and disadvantages. The proposed combined approach allows for better consistency in style transformation during image generation, enhances control over its style, and reduces the number of image distortions (artifacts). | en |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20041 | |
dc.subject | глибоке навчання | uk |
dc.subject | дифузійні моделі | uk |
dc.subject | консистентність генерування | uk |
dc.subject | трансформація стилю | uk |
dc.subject | deep learning | uk |
dc.subject | diffusion generative models | uk |
dc.subject | generation consistency | uk |
dc.subject | style transformation | uk |
dc.title | Проблема консистентності трансформації стилю для дифузійних моделей глибокого навчання | uk |
dc.type | Thesis | |
dc.identifier.udc | 004.89 | |
dc.relation.references | Jonathan Ho, Ajay Jain, Pieter Abbeel Denoising Diffusion Probabilistic Models arXiv:2006.11239 [cs.LG], Jun. 2020. | |
dc.relation.references | Nataniel Ruiz, Yuanzhen Li, Varun Jampani, Yael Pritch, Michael Rubinstein, Kfir Aberman DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation arXiv:2208.12242 [cs.CV], Aug. 2022. | |
dc.relation.references | Tim Dettmers, Artidoro Pagnoni, Ari Holtzman, Luke Zettlemoyer QLoRA: Efficient Finetuning of Quantized LLMs arXiv:2305.14314 [cs.LG], May. 2023. | |
dc.relation.references | Lvmin Zhang, Maneesh Agrawala Adding Conditional Control to Text-to-Image Diffusion Models arXiv:2302.05543 [cs.CV], Feb. 2023. | |
dc.relation.references | Inbar Huberman-Spiegelglas, Tomer Michaeli An Edit Friendly DDPM Noise Space: Inversion and Manipulations arXiv: 2304.06140 [cs.CV], Apr. 2023. | |
dc.relation.references | Gaurav Parmar, Krishna Kumar Singh Zero-shot Image-to-Image Translation arXiv:2302.03027 [cs.CV], Feb. 2023. | |
dc.relation.references | Amir Hertz, Andrey Voynov Style Aligned Image Generation via Shared Attention arXiv:2312.02133 [cs.CV], Jan. 2024. | |
dc.relation.references | Dustin Podell, Zion English SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis arXiv: 2307.01952 [cs.CV], Jul. 2023. | |