• English
    • українська
  • English 
    • English
    • українська
  • Login
View Item 
  • Frontpage
  • Матеріали конференцій ВНТУ
  • Молодь в науці: дослідження, проблеми, перспективи
  • Молодь в науці: дослідження, проблеми, перспективи (МН-2025)
  • View Item
  • Frontpage
  • Матеріали конференцій ВНТУ
  • Молодь в науці: дослідження, проблеми, перспективи
  • Молодь в науці: дослідження, проблеми, перспективи (МН-2025)
  • View Item
Сайт інституційного репозитарію ВНТУ містить роботи, матеріали та файли, які були розміщені докторантами, аспірантами та студентами Вінницького Національного Технічного Університету. Для розширення функцій сайту рекомендується увімкнути JavaScript.

Використання дистильованих великих мовних моделей (LLM) для математичних обчислень

Author
Шмалюх, В. А.
Хом`юк, І. В.
Khomyuk, I. V.
Date
2025
Metadata
Show full item record
Collections
  • Наукові роботи каф. ВМ [692]
  • Молодь в науці: дослідження, проблеми, перспективи (МН-2025) [38]
Abstract
This paper explores the application of distilled large language models (LLMs) for automatic computation of mathematical examples. The effectiveness of models such as DistilBERT, TinyLLaMA, and MiniGPT is analyzed in solving arithmetic and applied problems. The study evaluates the ability of LLMs to provide step-by-step reasoning, their accuracy, performance, and deployment feasibility on resource-constrained devices. Special attention is given to the handling of numerical structures in natural language queries and the generation of explanations. The results demonstrate the practicality of using distilled models in educational platforms, chatbots, and mobile learning applications.
 
У роботі розглянуто застосування дистильованих великих мовних моделей для виконання автоматичного математичного обчислення. Проаналізовано ефективність моделей типу DistilBERT, TinyLLaMA та MiniGPT під час розв’язування задач на обчислення та прикладних задач. Досліджено здатність LLM до покрокового обґрунтування результатів, їхню точність, швидкодію та можливість розгортання на пристроях із обмеженими ресурсами. Особливу увагу приділено обробці числових структур у запитах природною мовою та генерації пояснень. Результати демонструють доцільність застосування дистильованих моделей у навчальних платформах, чат-ботах і мобільних освітніх додатках.
 
URI:
https://ir.lib.vntu.edu.ua//handle/123456789/46500
View/Open
177405.pdf (292.8Kb)

Institutional Repository

FrontpageSearchHelpContact UsAbout Us

University Resources

JetIQLibrary websiteUniversity websiteE-catalog of VNTU

Browse

All of DSpaceCommunities & CollectionsBy Issue DateAuthorsTitlesSubjectsTypePublisherLanguageUdcISSNPublicationDOIThis CollectionBy Issue DateAuthorsTitlesSubjectsTypePublisherLanguageUdcISSNPublicationDOI

My Account

LoginRegister

Statistics

View Usage Statistics

ISSN 2413-6360 | Frontpage | Send Feedback | Help | Contact Us | About Us
© 2016 Vinnytsia National Technical University | Extra plugins code by VNTU Linuxoids | Powered by DSpace
Працює за підтримки 
НТБ ВНТУ