Показати скорочену інформацію

dc.contributor.authorКулик, Л. Р.uk
dc.contributor.authorМокін, О. Б.uk
dc.date.accessioned2024-04-30T07:17:39Z
dc.date.available2024-04-30T07:17:39Z
dc.date.issued2024
dc.identifier.citationКулик Л. Р., Мокін О. Б. Проблема консистентності трансформації стилю для дифузійних моделей глибокого навчання. Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. Електрон. текст. дані. 2024. URI: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20041.uk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/41765
dc.description.abstractПоказано актуальність проблеми забезпечення консистентності трансформації стилю зображень, згенерованих за допомогою дифузійних моделей глибокого навчання. Наведено приклади існуючих підходів забезпечення консистентної генерування та трансформації стилю, їх переваги та недоліки. Запропоновано комбінований підхід, що дозволяє досягти кращої консистентності трансформації стилю під час генерування зображення, посилити контроль над його стилем та зменшити кількість спотворень (артефактів).uk
dc.description.abstractThis paper highlights the relevance of the problem of ensuring consistency in the style transformation of images generated using deep-learning diffusion models. It presents examples of existing approaches to achieving consistent generation and style transformation, along with their advantages and disadvantages. The proposed combined approach allows for better consistency in style transformation during image generation, enhances control over its style, and reduces the number of image distortions (artifacts).en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20041
dc.subjectглибоке навчанняuk
dc.subjectдифузійні моделіuk
dc.subjectконсистентність генеруванняuk
dc.subjectтрансформація стилюuk
dc.subjectdeep learningen
dc.subjectdiffusion generative modelsen
dc.subjectgeneration consistencyen
dc.subjectstyle transformationen
dc.titleПроблема консистентності трансформації стилю для дифузійних моделей глибокого навчанняuk
dc.typeThesis
dc.identifier.udc004.89
dc.relation.referencesJonathan Ho, Ajay Jain, Pieter Abbeel “Denoising Diffusion Probabilistic Models” arXiv:2006.11239 [cs.LG], Jun. 2020en
dc.relation.referencesNataniel Ruiz, Yuanzhen Li, Varun Jampani, Yael Pritch, Michael Rubinstein, Kfir Aberman “DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation” arXiv:2208.12242 [cs.CV], Aug. 2022en
dc.relation.referencesTim Dettmers, Artidoro Pagnoni, Ari Holtzman, Luke Zettlemoyer “QLoRA: Efficient Finetuning of Quantized LLMs” arXiv:2305.14314 [cs.LG], May. 2023.en
dc.relation.referencesLvmin Zhang, Maneesh Agrawala “Adding Conditional Control to Text-to-Image Diffusion Models” arXiv:2302.05543 [cs.CV], Feb. 2023.en
dc.relation.referencesInbar Huberman-Spiegelglas, Tomer Michaeli “An Edit Friendly DDPM Noise Space: Inversion and Manipulations” arXiv: 2304.06140 [cs.CV], Apr. 2023.en
dc.relation.referencesGaurav Parmar, Krishna Kumar Singh “Zero-shot Image-to-Image Translation” arXiv:2302.03027 [cs.CV], Feb. 2023en
dc.relation.referencesAmir Hertz, Andrey Voynov “Style Aligned Image Generation via Shared Attention” arXiv:2312.02133 [cs.CV], Jan. 2024en
dc.relation.referencesDustin Podell, Zion English “SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis” arXiv: 2307.01952 [cs.CV], Jul. 2023.en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію