dc.contributor.author | Мокін, О. Б. | uk |
dc.contributor.author | Кулик, Л. Р. | uk |
dc.date.accessioned | 2023-11-17T12:58:34Z | |
dc.date.available | 2023-11-17T12:58:34Z | |
dc.date.issued | 2023 | |
dc.identifier.citation | Мокін О. Б. Проблема забезпечення консистентності генерації дифузійних моделей глибокого навчання [Електронний ресурс] / О. Б. Мокін, Л. Р. Кулик // Матеріали LIІ науково-технічної конференції підрозділів ВНТУ, Вінниця, 21-23 червня 2023 р. – Електрон. текст. дані. – 2023. – Режим доступу: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2023/paper/view/18860. | uk |
dc.identifier.uri | http://ir.lib.vntu.edu.ua//handle/123456789/38281 | |
dc.description.abstract | There has been shown the relevance of the problem of ensuring the consistency of image generation using deep
learning diffusion models and provided examples of existing approaches with their pros and cons. | en |
dc.description.abstract | Показано актуальність проблеми забезпечення консистентності генерування зображень за допомогою дифузійних моделей глибокого навчання та наведено приклади існуючих підходів забезпечення консистентності, їх переваги та недоліки. | uk |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Матеріали LIІ науково-технічної конференції підрозділів ВНТУ, Вінниця, 21-23 червня 2023 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2023/paper/view/18860 | |
dc.subject | глибоке навчання | uk |
dc.subject | дифузійні генеративні моделі | uk |
dc.subject | консистентність генерації | uk |
dc.subject | deep learning | en |
dc.subject | diffusion generative models | en |
dc.subject | generation consistency | en |
dc.title | Проблема забезпечення консистентності генерації дифузійних моделей глибокого навчання | uk |
dc.type | Thesis | |
dc.identifier.udc | 004.89 | |
dc.relation.references | Jonathan Ho, Ajay Jain, Pieter Abbeel “Denoising Diffusion Probabilistic Models” arXiv:2006.11239 [cs.LG], Jun. 2020 | en |
dc.relation.references | Flavio Schneider “ArchiSound: Audio Generation with Diffusion” arXiv:2301.13267 [cs.SD], Jan. 2023. | en |
dc.relation.references | Nataniel Ruiz, Yuanzhen Li, Varun Jampani, Yael Pritch, Michael Rubinstein, Kfir Aberman “DreamBooth: Fine Tuning
Text-to-Image Diffusion Models for Subject-Driven Generation” arXiv:2208.12242 [cs.CV], Aug. 2022 | en |
dc.relation.references | Rinon Gal, Yuval Alaluf, Yuval Atzmon, Or Patashnik, Amit H. Bermano, Gal Chechik, Daniel Cohen-Or “An Image is
Worth One Word: Personalizing Text-to-Image Generation using Textual Inversion” arXiv:2208.01618 [cs.CV], Aug. 2022. | en |
dc.relation.references | Lvmin Zhang, Maneesh Agrawala “Adding Conditional Control to Text-to-Image Diffusion Models” arXiv:2302.05543
[cs.CV], Feb. 2023. | en |
dc.relation.references | Tim Dettmers, Artidoro Pagnoni, Ari Holtzman, Luke Zettlemoyer “QLoRA: Efficient Finetuning of Quantized LLMs”
arXiv:2305.14314 [cs.LG], May. 2023. | en |