Показати скорочену інформацію

dc.contributor.authorЛевіцький, С. М.uk
dc.date.accessioned2024-02-23T14:45:44Z
dc.date.available2024-02-23T14:45:44Z
dc.date.issued2023
dc.identifier.citationЛевіцький С. М. Порівняльний аналіз можливостей великих Мовних моделей Alpaca, Vicuna, Falcon на основі трансформер-архітектури [Електронний ресурс] / С. М. Левіцький / Матеріали LII Науково-технічної конференції підрозділів ВНТУ, Вінниця, 21-23 червня 2023 р. – Електрон. текст. дані. – 2023. – Режим доступу: https://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2023/paper/view/18956.uk
dc.identifier.urihttp://ir.lib.vntu.edu.ua//handle/123456789/39235
dc.description.abstractРозглянуто популярні великі мовні моделі з відкритим доступом на основі трансформер-архітектури. Проаналізовано їхні переваги, недоліки та обмеження.uk
dc.description.abstractPopular large language models with open access based on the transformer architecture are considered. Their advantages, disadvantages, and limitations are analyzeden
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали LII Науково-технічної конференції підрозділів ВНТУ, Вінниця, 21-23 червня 2023 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/all-fksa/all-fksa-2023/paper/view/18956
dc.subjectAlpacaen
dc.subjectVicunaen
dc.subjectFalconen
dc.subjectтрансформериuk
dc.subjectтонке налаштування з учителемuk
dc.subjecttransformersen
dc.subjectsupervised fine-tuningen
dc.titleПорівняльний аналіз можливостей великих Мовних моделей Alpaca, Vicuna, Falcon на основі трансформер-архітектуриuk
dc.title.alternativeComparative analysis of capabilities of large language models Alpaca, Vicuna, Falcon based on transformer architectureen
dc.typeThesis
dc.identifier.udc004.89
dc.relation.referencesAshish Vaswani, Noam Shazeer, Niki Parmar, and others. Attention Is All You Need. June 2017. https://arxiv.org/abs/1706.03762en
dc.relation.referencesJingfeng Yang, Hongye Jin, Ruixiang Tang and others. Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond. April 2023. https://arxiv.org/abs/2304.13712en
dc.relation.referencesOpen LLM Leaderboard. https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboarden
dc.relation.referencesRohan Taori, Ishaan Gulrajani, Tianyi Zhang, and others. Alpaca: A Strong, Replicable Instruction-Following Model. March 2023. https://crfm.stanford.edu/2023/03/13/alpaca.htmlen
dc.relation.referencesRohan Taori, Ishaan Gulrajani, Tianyi Zhang, and others. Stanford Alpaca: An Instruction-following LLaMA Model. March 2023. https://github.com/tatsu-lab/stanford_alpacaen
dc.relation.referencesLong Ouyang, Jeff Wu, Xu Jiang, and others. Training language models to follow instructions with human feedback. March 2022. https://arxiv.org/abs/2203.02155en
dc.relation.referencesWei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, and others. Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality. March 2023. https://lmsys.org/blog/2023-03-30-vicuna/en
dc.relation.referencesWei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, and others. Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality. March 2023. https://lmsys.org/blog/2023-03-30-vicuna/en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію