Показати скорочену інформацію

dc.contributor.authorКулик, Л. Р.uk
dc.contributor.authorМокін, О. Б.uk
dc.date.accessioned2024-04-30T07:17:39Z
dc.date.available2024-04-30T07:17:39Z
dc.date.issued2024
dc.identifier.citationКулик Л. Р., Мокін О. Б. Проблема консистентності трансформації стилю для дифузійних моделей глибокого навчання. Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. Електрон. текст. дані. 2024. URI: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20041.uk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/41765
dc.description.abstractПоказано актуальність проблеми забезпечення консистентності трансформації стилю зображень, згенерованих за допомогою дифузійних моделей глибокого навчання. Наведено приклади існуючих підходів забезпечення консистентної генерування та трансформації стилю, їх переваги та недоліки. Запропоновано комбінований підхід, що дозволяє досягти кращої консистентності трансформації стилю під час генерування зображення, посилити контроль над його стилем та зменшити кількість спотворень (артефактів).uk
dc.description.abstractThis paper highlights the relevance of the problem of ensuring consistency in the style transformation of images generated using deep-learning diffusion models. It presents examples of existing approaches to achieving consistent generation and style transformation, along with their advantages and disadvantages. The proposed combined approach allows for better consistency in style transformation during image generation, enhances control over its style, and reduces the number of image distortions (artifacts).en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20041
dc.subjectглибоке навчанняuk
dc.subjectдифузійні моделіuk
dc.subjectконсистентність генеруванняuk
dc.subjectтрансформація стилюuk
dc.subjectdeep learninguk
dc.subjectdiffusion generative modelsuk
dc.subjectgeneration consistencyuk
dc.subjectstyle transformationuk
dc.titleПроблема консистентності трансформації стилю для дифузійних моделей глибокого навчанняuk
dc.typeThesis
dc.identifier.udc004.89
dc.relation.referencesJonathan Ho, Ajay Jain, Pieter Abbeel Denoising Diffusion Probabilistic Models arXiv:2006.11239 [cs.LG], Jun. 2020.
dc.relation.referencesNataniel Ruiz, Yuanzhen Li, Varun Jampani, Yael Pritch, Michael Rubinstein, Kfir Aberman DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation arXiv:2208.12242 [cs.CV], Aug. 2022.
dc.relation.referencesTim Dettmers, Artidoro Pagnoni, Ari Holtzman, Luke Zettlemoyer QLoRA: Efficient Finetuning of Quantized LLMs arXiv:2305.14314 [cs.LG], May. 2023.
dc.relation.referencesLvmin Zhang, Maneesh Agrawala Adding Conditional Control to Text-to-Image Diffusion Models arXiv:2302.05543 [cs.CV], Feb. 2023.
dc.relation.referencesInbar Huberman-Spiegelglas, Tomer Michaeli An Edit Friendly DDPM Noise Space: Inversion and Manipulations arXiv: 2304.06140 [cs.CV], Apr. 2023.
dc.relation.referencesGaurav Parmar, Krishna Kumar Singh Zero-shot Image-to-Image Translation arXiv:2302.03027 [cs.CV], Feb. 2023.
dc.relation.referencesAmir Hertz, Andrey Voynov Style Aligned Image Generation via Shared Attention arXiv:2312.02133 [cs.CV], Jan. 2024.
dc.relation.referencesDustin Podell, Zion English SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis arXiv: 2307.01952 [cs.CV], Jul. 2023.


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію