• English
    • українська
  • українська 
    • English
    • українська
  • Увійти
Дивитися документ 
  • Головна
  • Матеріали конференцій ВНТУ
  • Молодь в науці: дослідження, проблеми, перспективи
  • Молодь в науці: дослідження, проблеми, перспективи (МН-2025)
  • Дивитися документ
  • Головна
  • Матеріали конференцій ВНТУ
  • Молодь в науці: дослідження, проблеми, перспективи
  • Молодь в науці: дослідження, проблеми, перспективи (МН-2025)
  • Дивитися документ
Сайт інституційного репозитарію ВНТУ містить роботи, матеріали та файли, які були розміщені докторантами, аспірантами та студентами Вінницького Національного Технічного Університету. Для розширення функцій сайту рекомендується увімкнути JavaScript.

Використання дистильованих великих мовних моделей (LLM) для математичних обчислень

Автор
Шмалюх, В. А.
Хом`юк, І. В.
Khomyuk, I. V.
Дата
2025
Metadata
Показати повну інформацію
Collections
  • Наукові роботи каф. ВМ [692]
  • Молодь в науці: дослідження, проблеми, перспективи (МН-2025) [38]
Анотації
This paper explores the application of distilled large language models (LLMs) for automatic computation of mathematical examples. The effectiveness of models such as DistilBERT, TinyLLaMA, and MiniGPT is analyzed in solving arithmetic and applied problems. The study evaluates the ability of LLMs to provide step-by-step reasoning, their accuracy, performance, and deployment feasibility on resource-constrained devices. Special attention is given to the handling of numerical structures in natural language queries and the generation of explanations. The results demonstrate the practicality of using distilled models in educational platforms, chatbots, and mobile learning applications.
 
У роботі розглянуто застосування дистильованих великих мовних моделей для виконання автоматичного математичного обчислення. Проаналізовано ефективність моделей типу DistilBERT, TinyLLaMA та MiniGPT під час розв’язування задач на обчислення та прикладних задач. Досліджено здатність LLM до покрокового обґрунтування результатів, їхню точність, швидкодію та можливість розгортання на пристроях із обмеженими ресурсами. Особливу увагу приділено обробці числових структур у запитах природною мовою та генерації пояснень. Результати демонструють доцільність застосування дистильованих моделей у навчальних платформах, чат-ботах і мобільних освітніх додатках.
 
URI:
https://ir.lib.vntu.edu.ua//handle/123456789/46500
Відкрити
177405.pdf (292.8Kb)

Інституційний репозиторій

ГоловнаПошукДовідкаКонтактиПро нас

Ресурси

JetIQСайт бібліотекиСайт університетаЕлектронний каталог ВНТУ

Перегляд

Всі архівиСпільноти та колекціїЗа датою публікаціїАвторамиНазвамиТемамиТипВидавництвоМоваУДКISSNВидання, що міститьDOIЦя колекціяЗа датою публікаціїАвторамиНазвамиТемамиТипВидавництвоМоваУДКISSNВидання, що міститьDOI

Мій обліковий запис

ВхідРеєстрація

Статистика

View Usage Statistics

ISSN 2413-6360 | Головна | Відправити відгук | Довідка | Контакти | Про нас
© 2016 Vinnytsia National Technical University | Extra plugins code by VNTU Linuxoids | Powered by DSpace
Працює за підтримки 
НТБ ВНТУ