Показати скорочену інформацію

dc.contributor.authorШмалюх, В. А.uk
dc.contributor.authorХом`юк, І. В.uk
dc.contributor.authorKhomyuk, I. V.en
dc.date.accessioned2025-05-20T13:46:14Z
dc.date.available2025-05-20T13:46:14Z
dc.date.issued2025
dc.identifier.citationШмалюх В. А., Хом`юк І. В. Використання дистильованих великих мовних моделей (LLM) для математичних обчислень // Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. Електрон. текст. дані. 2025. URI: https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/viewFile/24649.uk
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/46500
dc.description.abstractThis paper explores the application of distilled large language models (LLMs) for automatic computation of mathematical examples. The effectiveness of models such as DistilBERT, TinyLLaMA, and MiniGPT is analyzed in solving arithmetic and applied problems. The study evaluates the ability of LLMs to provide step-by-step reasoning, their accuracy, performance, and deployment feasibility on resource-constrained devices. Special attention is given to the handling of numerical structures in natural language queries and the generation of explanations. The results demonstrate the practicality of using distilled models in educational platforms, chatbots, and mobile learning applications.en
dc.description.abstractУ роботі розглянуто застосування дистильованих великих мовних моделей для виконання автоматичного математичного обчислення. Проаналізовано ефективність моделей типу DistilBERT, TinyLLaMA та MiniGPT під час розв’язування задач на обчислення та прикладних задач. Досліджено здатність LLM до покрокового обґрунтування результатів, їхню точність, швидкодію та можливість розгортання на пристроях із обмеженими ресурсами. Особливу увагу приділено обробці числових структур у запитах природною мовою та генерації пояснень. Результати демонструють доцільність застосування дистильованих моделей у навчальних платформах, чат-ботах і мобільних освітніх додатках.uk
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р.uk
dc.subjectLLMen
dc.subjectдистиляціяuk
dc.subjectобчисленняuk
dc.subjectNLPen
dc.subjectштучний інтелектuk
dc.subjectматематичні задачіuk
dc.subjectdistillationen
dc.subjectcomputationen
dc.subjectartificial intelligenceen
dc.subjectmathematical problemsen
dc.titleВикористання дистильованих великих мовних моделей (LLM) для математичних обчисленьuk
dc.typeThesis
dc.identifier.udc004.421.2
dc.relation.referencesNatural Language Processing with Neural Networks. [Електронний ресурс] – Режим доступу: https://www.eaae.be/wp-content/uploads/2017/04/neural-networks-for-natural-language-processing-slides.pdf (дата звернення: 01.04.2025).en
dc.relation.referencesня: 01.04.2025). 2. Hugging Face DistilBERT Documentation. [Електронний ресурс] – Режим доступу: https://huggingface.co/transformers/v3.0.2/model_doc/distilbert.html (дата звернення: 01.04.2025)en
dc.relation.referencesMiniGPT: Minimalist Implementation of GPT. [Електронний ресурс] – Режим доступу: https://github.com/karpathy/minGPT (дата звернення: 01.04.2025).en
dc.relation.referencesArtificial Intelligence in Education: Applications and Perspectives. [Електронний ресурс] – Режим доступу: https://www.edutopia.org/article/7-ai-tools-that-help-teachers-work-more-efficiently/ (дата звернення: 01.04.2025)en
dc.relation.referencesEvaluating Large Language Models for Mathematical Problem Solving. [Електронний ресурс] – Режим доступу: https://gaied.org/neurips2023/files/21/21_paper.pdf (дата звернення: 01.04.2025).en
dc.relation.referencesVaswani, A. et al. «Attention is All You Need». [Електронний ресурс] – Режим доступу: https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa -Paper.pdf (дата звернення: 01.04.2025).en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію