dc.contributor.author | Шмалюх, В. А. | uk |
dc.contributor.author | Хом`юк, І. В. | uk |
dc.contributor.author | Khomyuk, I. V. | en |
dc.date.accessioned | 2025-05-20T13:46:14Z | |
dc.date.available | 2025-05-20T13:46:14Z | |
dc.date.issued | 2025 | |
dc.identifier.citation | Шмалюх В. А., Хом`юк І. В. Використання дистильованих великих мовних моделей (LLM) для математичних обчислень // Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. Електрон. текст. дані. 2025. URI: https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/viewFile/24649. | uk |
dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/46500 | |
dc.description.abstract | This paper explores the application of distilled large language models (LLMs) for automatic computation of
mathematical examples. The effectiveness of models such as DistilBERT, TinyLLaMA, and MiniGPT is analyzed in
solving arithmetic and applied problems. The study evaluates the ability of LLMs to provide step-by-step reasoning, their
accuracy, performance, and deployment feasibility on resource-constrained devices. Special attention is given to the
handling of numerical structures in natural language queries and the generation of explanations. The results demonstrate
the practicality of using distilled models in educational platforms, chatbots, and mobile learning applications. | en |
dc.description.abstract | У роботі розглянуто застосування дистильованих великих мовних моделей для виконання автоматичного
математичного обчислення. Проаналізовано ефективність моделей типу DistilBERT, TinyLLaMA та MiniGPT
під час розв’язування задач на обчислення та прикладних задач. Досліджено здатність LLM до покрокового
обґрунтування результатів, їхню точність, швидкодію та можливість розгортання на пристроях із
обмеженими ресурсами. Особливу увагу приділено обробці числових структур у запитах природною мовою та
генерації пояснень. Результати демонструють доцільність застосування дистильованих моделей у навчальних
платформах, чат-ботах і мобільних освітніх додатках. | uk |
dc.language.iso | uk_UA | uk_UA |
dc.publisher | ВНТУ | uk |
dc.relation.ispartof | Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. | uk |
dc.subject | LLM | en |
dc.subject | дистиляція | uk |
dc.subject | обчислення | uk |
dc.subject | NLP | en |
dc.subject | штучний інтелект | uk |
dc.subject | математичні задачі | uk |
dc.subject | distillation | en |
dc.subject | computation | en |
dc.subject | artificial intelligence | en |
dc.subject | mathematical problems | en |
dc.title | Використання дистильованих великих мовних моделей (LLM) для математичних обчислень | uk |
dc.type | Thesis | |
dc.identifier.udc | 004.421.2 | |
dc.relation.references | Natural Language Processing with Neural Networks. [Електронний ресурс] – Режим доступу:
https://www.eaae.be/wp-content/uploads/2017/04/neural-networks-for-natural-language-processing-slides.pdf (дата
звернення: 01.04.2025). | en |
dc.relation.references | ня: 01.04.2025).
2. Hugging Face DistilBERT Documentation. [Електронний ресурс] – Режим доступу:
https://huggingface.co/transformers/v3.0.2/model_doc/distilbert.html (дата звернення: 01.04.2025) | en |
dc.relation.references | MiniGPT: Minimalist Implementation of GPT. [Електронний ресурс] – Режим доступу:
https://github.com/karpathy/minGPT (дата звернення: 01.04.2025). | en |
dc.relation.references | Artificial Intelligence in Education: Applications and Perspectives. [Електронний ресурс] – Режим доступу:
https://www.edutopia.org/article/7-ai-tools-that-help-teachers-work-more-efficiently/ (дата звернення: 01.04.2025) | en |
dc.relation.references | Evaluating Large Language Models for Mathematical Problem Solving. [Електронний ресурс] – Режим
доступу: https://gaied.org/neurips2023/files/21/21_paper.pdf (дата звернення: 01.04.2025). | en |
dc.relation.references | Vaswani, A. et al. «Attention is All You Need». [Електронний ресурс] – Режим доступу:
https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa -Paper.pdf (дата
звернення: 01.04.2025). | en |