dc.contributor.author | Левіцький, С. М. | uk |
dc.contributor.author | Панасенко, О. Б. | uk |
dc.date.accessioned | 2024-04-30T07:13:34Z | |
dc.date.available | 2024-04-30T07:13:34Z | |
dc.date.issued | 2024 | |
dc.identifier.citation | Левіцький С., Панасенко О. Дослідження здатності малої мовної моделі до міркування. Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. Електрон. текст. дані. 2024. URI: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20828. | uk |
dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/41692 | |
dc.description.abstract | Перевірено і оцінено здатність малої мовної моделі розв’язувати міркувальні задачі. Для цього виконано експерименти з zero-shot та few-shot запитами, попередньо провівши тонке налаштування з учителем малої мовної моделі TinyLlama. Представлено і проаналізовано результати експериментів, а також запропоновано можливі шляхи підвищення точності моделі при розв’язуванні міркувальних задач. | uk |
dc.description.abstract | The capability of the small language model to solve reasoning tasks was tested and evaluated. Experiments were conducted with zero-shot and few-shot prompting, after applying Supervider Fine-Tuning to TinyLlama small language model. The results of the experiments were presented and analyzed, along with proposed potential ways to improve the model's accuracy in solving reasoning tasks. | en |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Матеріали LІII науково-технічної конференції підрозділів ВНТУ, Вінниця, 20-22 березня 2024 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2024/paper/view/20828 | |
dc.subject | велика мовна модель | uk |
dc.subject | мала мовна модель | uk |
dc.subject | TinyLlama | uk |
dc.subject | міркувальні задачі | uk |
dc.subject | тонке налаштування з учителем | uk |
dc.subject | TRL | en |
dc.subject | LoRA | en |
dc.subject | AQUA-RAT | en |
dc.subject | large language model | en |
dc.subject | small language model | en |
dc.subject | reasoning tasks | en |
dc.subject | supervisedfine-tuning | en |
dc.title | Дослідження здатності малої мовної моделі до міркування | uk |
dc.type | Thesis | |
dc.identifier.udc | 004.89 | |
dc.relation.references | P. Zhang, G. Zeng, T. Wang, W. Lu, TinyLlama: An Open-Source Small Language Model, Jan
2024 [Online]. Available: https://arxiv.org/abs/2401.02385. Accessed on: Mar 18, 2024 | en |
dc.relation.references | P. Zhang, TinyLlama, Jan 2024 [Online]. Available:
https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v1.0. Accessed on: Mar 18, 2024 | en |
dc.relation.references | L. von Werra, Y. Belkada, L. Tunstall, E. Beeching, T. Thrush, N. Lambert, S. Huang, TRL:
Transformer Reinforcement Learning, 2020 [Online].
Available:https://huggingface.co/docs/trl/v0.7.11/en/index. Accessed on: Mar 18, 2024 | en |
dc.relation.references | Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu
Wang, Weizhu Chen. LoRA: Low-Rank Adaptation of Large Language Models, Oct. 2021
[Online]. Available: https://arxiv.org/abs/2106.09685. Accessed on: Mar 18, 2024 | en |
dc.relation.references | W. Ling, D. Yogatama, Ch. Dyer, P. Blunsom Program Induction by Rationale Generation :
Learning to Solve and Explain Algebraic Word Problems, 2017 [Online]. Available:
https://arxiv.org/abs/1705.04146. Accessed on: Mar 18, 2024 | en |
dc.relation.references | Ilya Loshchilov, Frank Hutter, Decoupled Weight Decay Regularization // International
Conference on Learning Representations, 2019 [Online]. Available:
https://arxiv.org/abs/1711.05101. Accessed on: Mar 18, 2024 | en |