| dc.contributor.author | Варер, Б. Ю. | uk |
| dc.contributor.author | Мокін, В. Б. | uk |
| dc.contributor.author | Mokin, V. B. | en |
| dc.contributor.author | Varer, B. Yu. | en |
| dc.date.accessioned | 2025-08-13T09:51:16Z | |
| dc.date.available | 2025-08-13T09:51:16Z | |
| dc.date.issued | 2025 | |
| dc.identifier.citation | Варер Б. Ю., Мокін В. Б. Дослідження впливу взаємодії різних моделей на розподіл ймовірностей наступного токена у великих мовних моделях // Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. URI: https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/25613. | uk |
| dc.identifier.isbn | 978-617-8163-57-0 | |
| dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/48228 | |
| dc.description.abstract | Досліджено вплив зміни великої мовної моделі при фіксованому контексті на розподіл ймовірностей
наступного токена, у порівнянні з впливом зміни контексту при фіксованій моделі. Проведено
експериментальне порівняння факторів зміни моделі та зміни контексту з використанням моделей Meta
LLaMA 3.2-3B та Microsoft Phi 4-mini на датасеті з 60 питань з різних предметних областей. За допомогою
дивергенції Дженсена-Шеннона встановлено, що зміна моделі при фіксованому контексті призводить до змін у
розподілі наступного токена (JSD 0.640-0.678), які є співставні за величиною зі зміною контексту при
фіксованій моделі (JSD 0.638-0.721). Результати підтверджують важливість оптимального вибору моделей
під час проєктування ефективних систем штучного інтелекту. | uk |
| dc.description.abstract | The influence of changing a large language model with fixed context on the distribution of next token probabilities
was investigated, compared to the influence of changing a context with a fixed model. An experimental comparison of
model change and context change factors was conducted using Meta LLaMA 3.2-3B and Microsoft Phi-4-mini models
on a dataset of 60 questions from various subject domains. Using Jensen-Shannon divergence, it was established that
changing the model with fixed context leads to changes in the next token distribution (JSD 0.640-0.678) that are
comparable in magnitude to changing context with a fixed model (JSD 0.638-0.721). The results confirm the importance
of optimal model selection when designing ef ective artificial intelligence systems. | en |
| dc.language.iso | uk_UA | uk_UA |
| dc.publisher | ВНТУ | uk |
| dc.relation.ispartof | Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. | uk |
| dc.relation.uri | https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/25613 | |
| dc.subject | великі мовні моделі | uk |
| dc.subject | кооперація моделей | uk |
| dc.subject | агентні системи | uk |
| dc.subject | дивергенція Дженсена-Шеннона | uk |
| dc.subject | розподіл ймовірностей | uk |
| dc.subject | штучний інтелект | uk |
| dc.subject | compared to the influence of changing a context with a fixed model An experimental comparison of | uk |
| dc.subject | large language models | en |
| dc.subject | model cooperation | en |
| dc.subject | agent systems | en |
| dc.subject | Jensen-Shannon divergence | en |
| dc.subject | probability distribution | en |
| dc.subject | artificial intelligence | en |
| dc.title | Дослідження впливу взаємодії різних моделей на розподіл ймовірностей наступного токена у великих мовних моделях | uk |
| dc.type | Thesis | |
| dc.identifier.udc | 004.8 | |
| dc.relation.references | Li X. та ін. A survey on LLM-based multi-agent systems: workflow, infrastructure, and challenges // Vicinagearth. – 2024.
– Т. 1, № 1. – С. 9. – DOI: 10.1007/s44336-024-00009-2. – ISSN 3005-060X. | en |
| dc.relation.references | Shen Y. та ін. HuggingGPT: solving AI tasks with ChatGPT and its friends in Hugging Face // Advances in Neural
Information Processing Systems. – 2023. – Т. 36. – С. 38154–38180. | en |
| dc.relation.references | Hong S. та ін. METAGPT: meta programming for a multi-agent collaborative framework // Proceedings of the 12th
International Conference on Learning Representations (ICLR 2024), Vienna (Austria), 7–11 May 2024. – 2024. – Текст :
електронний ресурс. – URL: https://github.com/geekan/MetaGPT (дата звернення: 10.06.2025). | en |
| dc.relation.references | Jiang D., Ren X., Lin B. Y. LLM-Blender: ensembling large language models with pairwise comparison and generative
fusion // Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (ACL 2023), Toronto
(Canada), 9–14 July 2023. – 2023. – С. 14165–14178. – DOI: 10.18653/v1/2023.acl-long.792. – URL:
https://aclanthology.org/2023.acl-long.792 (дата зверн.: 10.06.2025). | en |
| dc.relation.references | Vaswani A. та ін. Attention is all you need // Advances in Neural Information Processing Systems. – 2017. – Т. 30. – С.
5998–6008. | en |
| dc.relation.references | Lin J. Divergence measures based on the Shannon entropy // IEEE Transactions on Information Theory. – 1991. – Т. 37, №
1. – С. 145–151. – DOI: 10.1109/18.61115. – ISSN 0018-9448. | en |
| dc.relation.references | Meta AI. LLaMA 3.2-3B-Instruct: multilingual large language model // Hugging Face : [Електронний ресурс]. – 2024. –
URL: https://huggingface.co/meta-llama/Llama-3.2-3B-instruct (дата зверн.: 10.06.2025).
8. Microsoft Research. Phi-4-mini-instruct: small language model // Hugging Face : [Електронний ресурс]. – 2025. – URL:
https://huggingface.co/microsoft/Phi-4-mini-instruct (дата зверн.: 10.06.2025). | en |