dc.contributor.author | Левіцький, С. М. | uk |
dc.date.accessioned | 2024-02-23T14:45:44Z | |
dc.date.available | 2024-02-23T14:45:44Z | |
dc.date.issued | 2023 | |
dc.identifier.citation | Левіцький С. М. Порівняльний аналіз можливостей великих Мовних моделей Alpaca, Vicuna, Falcon на основі трансформер-архітектури [Електронний ресурс] / С. М. Левіцький / Матеріали LII Науково-технічної конференції підрозділів ВНТУ, Вінниця, 21-23 червня 2023 р. – Електрон. текст. дані. – 2023. – Режим доступу: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2023/paper/view/18956. | uk |
dc.identifier.uri | http://ir.lib.vntu.edu.ua//handle/123456789/39235 | |
dc.description.abstract | Розглянуто популярні великі мовні моделі з відкритим доступом на основі
трансформер-архітектури. Проаналізовано їхні переваги, недоліки та обмеження. | uk |
dc.description.abstract | Popular large language models with open access based on the transformer architecture are
considered. Their advantages, disadvantages, and limitations are analyzed | en |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Матеріали LII Науково-технічної конференції підрозділів ВНТУ, Вінниця, 21-23 червня 2023 р. | uk |
dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2023/paper/view/18956 | |
dc.subject | Alpaca | en |
dc.subject | Vicuna | en |
dc.subject | Falcon | en |
dc.subject | трансформери | uk |
dc.subject | тонке налаштування з учителем | uk |
dc.subject | transformers | en |
dc.subject | supervised fine-tuning | en |
dc.title | Порівняльний аналіз можливостей великих Мовних моделей Alpaca, Vicuna, Falcon на основі трансформер-архітектури | uk |
dc.title.alternative | Comparative analysis of capabilities of large language models Alpaca, Vicuna, Falcon based on transformer architecture | en |
dc.type | Thesis | |
dc.identifier.udc | 004.89 | |
dc.relation.references | Ashish Vaswani, Noam Shazeer, Niki Parmar, and others. Attention Is All You Need. June
2017. https://arxiv.org/abs/1706.03762 | en |
dc.relation.references | Jingfeng Yang, Hongye Jin, Ruixiang Tang and others. Harnessing the Power of LLMs in
Practice: A Survey on ChatGPT and Beyond. April 2023. https://arxiv.org/abs/2304.13712 | en |
dc.relation.references | Open LLM Leaderboard.
https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard | en |
dc.relation.references | Rohan Taori, Ishaan Gulrajani, Tianyi Zhang, and others. Alpaca: A Strong, Replicable
Instruction-Following Model. March 2023. https://crfm.stanford.edu/2023/03/13/alpaca.html | en |
dc.relation.references | Rohan Taori, Ishaan Gulrajani, Tianyi Zhang, and others. Stanford Alpaca: An
Instruction-following LLaMA Model. March 2023.
https://github.com/tatsu-lab/stanford_alpaca | en |
dc.relation.references | Long Ouyang, Jeff Wu, Xu Jiang, and others. Training language models to follow instructions
with human feedback. March 2022. https://arxiv.org/abs/2203.02155 | en |
dc.relation.references | Wei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, and others. Vicuna: An Open-Source
Chatbot Impressing GPT-4 with 90%* ChatGPT Quality. March 2023.
https://lmsys.org/blog/2023-03-30-vicuna/ | en |
dc.relation.references | Wei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, and others. Vicuna: An Open-Source
Chatbot Impressing GPT-4 with 90%* ChatGPT Quality. March 2023.
https://lmsys.org/blog/2023-03-30-vicuna/ | en |