Показати скорочену інформацію

dc.contributor.authorМокін, В. Б.uk
dc.contributor.authorВарер, Б. Ю.uk
dc.date.accessioned2025-09-12T10:06:04Z
dc.date.available2025-09-12T10:06:04Z
dc.date.issued2025
dc.identifier.citationuk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/49239
dc.description.abstractРобота присвячена дослідженню впливу параметрів генерування (temperature та top_p) на різноманітність тексту, створеного великими мовними моделями. Запропоновано методологію оцінювання різних аспектів різноманітності на основі шести метрик, об'єднаних в єдиний показник. Результати експериментального дослідження 30 різних промптів із 36 комбінаціями параметрів для моделі Meta Llama 3.2 3B-instruct показали, що оптимальні значення різноманітності досягаються при помірних і високих значеннях temperature та top_p.uk
dc.description.abstractThe work is devoted to investigating the influence of generation parameters (temperature and top_p) on the diversity of text produced by large language models. A methodology is proposed for evaluating different aspects of diversity based on six metrics, combined into a single indicator. The results of an experimental study involving 30 different prompts and 36 parameter combinations for the Meta Llama 3.2 3B-instruct model showed that optimal diversity values are achieved with moderate and high settings of temperature and top_p. This research is of practical significance for creating highquality synthetic datasets, which reduces the risk of model overfitting and improves their ability to generalize.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartof// Матеріали LIV науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2025/paper/view/24236
dc.subjectвеликі мовні моделіuk
dc.subjectпараметри генеруванняuk
dc.subjectрізноманітність текстуuk
dc.subjectсинтетичні даніuk
dc.subjectдонавчанняuk
dc.subjectlarge language modelsuk
dc.subjectgeneration parametersuk
dc.subjecttext diversityuk
dc.subjectsynthetic datauk
dc.subjectfine-tuninguk
dc.titleДослідження впливу параметрів великої мовної моделі на різноманітність згенерованого текстуuk
dc.typeThesis
dc.identifier.udc004.8: 004.91
dc.relation.referencesVM K., Warrier H., Gupta Y. . Fine tuning LLM for enterprise: Practical guidelines and recommendations // arXiv preprint arXiv:2404.10779. 2024.
dc.relation.referencesKang A., Chen J.Y., Lee-Youngzie Z., Fu S. Synthetic data generation with LLM for improved depression prediction // arXiv preprint arXiv:2411.17672. 2024.
dc.relation.referencesSetlur A., Garg S., Geng X., Garg N., Smith V., Kumar A. RL on incorrect synthetic data scales the efficiency of LLM math reasoning by eight-fold // Advances in Neural Information Processing Systems. 2024. . 37. . 4300043031.
dc.relation.referencesWei J., Huang D., Lu Y., Zhou D., Le Q.V. Simple synthetic data reduces sycophancy in large language models // arXiv preprint arXiv:2308.03958. 2023.
dc.relation.referencesWoolsey C.R., Bisht P., Rothman J., Leroy G. Utilizing large language models to generate synthetic data to increase the performance of BERT-based neural networks // AMIA Joint Summits on Translational Science Proceedings. 2024. 31 . . 2024. . 429438. PMID: 38827067; PMCID: PMC11141799.
dc.relation.referencesBisbee J., Clinton J.D., Dorff C., Kenkel B., Larson J.M. Synthetic replacements for human survey data? The perils of large language models // Political Analysis. 2024. . 32, 4. . 401416. DOI: 10.1017/pan.2024.5.
dc.relation.referencesMeta. Llama 3.2 3B [ ]. : https://huggingface.co/meta-llama/Llama-3.2-3B ( : 22.03.2025).


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію