Показати скорочену інформацію

dc.contributor.authorЛевіцький, С.uk
dc.contributor.authorПанасенко, О.uk
dc.date.accessioned2024-04-30T07:13:34Z
dc.date.available2024-04-30T07:13:34Z
dc.date.issued2024
dc.identifier.citationЛевіцький С., Панасенко О. Дослідження здатності малої мовної моделі до міркування. Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. Електрон. текст. дані. 2024. URI: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20828.uk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/41692
dc.description.abstractПеревірено і оцінено здатність малої мовної моделі розв’язувати міркувальні задачі. Для цього виконано експерименти з zero-shot та few-shot запитами, попередньо провівши тонке налаштування з учителем малої мовної моделі TinyLlama. Представлено і проаналізовано результати експериментів, а також запропоновано можливі шляхи підвищення точності моделі при розв’язуванні міркувальних задач.uk
dc.description.abstractThe capability of the small language model to solve reasoning tasks was tested and evaluated. Experiments were conducted with zero-shot and few-shot prompting, after applying Supervider Fine-Tuning to TinyLlama small language model. The results of the experiments were presented and analyzed, along with proposed potential ways to improve the model's accuracy in solving reasoning tasks.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20828
dc.subjectвелика мовна модельuk
dc.subjectмала мовна модельuk
dc.subjectTinyLlamauk
dc.subjectміркувальні задачіuk
dc.subjectтонке налаштування з учителемuk
dc.subjectTRLuk
dc.subjectLoRAuk
dc.subjectAQUA-RATuk
dc.subjectlarge language modeluk
dc.subjectsmall language modeluk
dc.subjectTinyLlamauk
dc.subjectreasoning tasksuk
dc.subjectsupervisedfine-tuninguk
dc.subjectTRLuk
dc.subjectLoRAuk
dc.subjectAQUA-RATuk
dc.titleДослідження здатності малої мовної моделі до міркуванняuk
dc.typeThesis
dc.identifier.udc004.89
dc.relation.referencesP. Zhang, G. Zeng, T. Wang, W. Lu, TinyLlama: An Open-Source Small Language Model, Jan 2024 [Online]. Available: https://arxiv.org/abs/2401.02385. Accessed on: Mar 18, 2024
dc.relation.referencesP. Zhang, TinyLlama, Jan 2024 [Online]. Available: https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v1.0. Accessed on: Mar 18, 2024
dc.relation.referencesL. von Werra, Y. Belkada, L. Tunstall, E. Beeching, T. Thrush, N. Lambert, S. Huang, TRL: Transformer Reinforcement Learning, 2020 [Online]. Available:https://huggingface.co/docs/trl/v0.7.11/en/index. Accessed on: Mar 18, 2024
dc.relation.referencesEdward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, Weizhu Chen. LoRA: Low-Rank Adaptation of Large Language Models, Oct. 2021 [Online]. Available: https://arxiv.org/abs/2106.09685. Accessed on: Mar 18, 2024
dc.relation.referencesW. Ling, D. Yogatama, Ch. Dyer, P. Blunsom Program Induction by Rationale Generation : Learning to Solve and Explain Algebraic Word Problems, 2017 [Online]. Available: https://arxiv.org/abs/1705.04146. Accessed on: Mar 18, 2024
dc.relation.referencesIlya Loshchilov, Frank Hutter, Decoupled Weight Decay Regularization // International Conference on Learning Representations, 2019 [Online]. Available: https://arxiv.org/abs/1711.05101. Accessed on: Mar 18, 2024 7. A. Havrilla, Y. Du, Sharath Ch. Raparthy, C. Nalmpantis, J. Dwivedi-Yu, M. Zhuravinskyi, E. Hambro, S. Sukhbaatar, R. Raileanu, Teaching Large Language Models to Reason with Reinforcement Learning, Mar 2024 [Online]. Available: https://arxiv.org/abs/2403.04642. Accessed on: Mar 18, 2024


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію