Показати скорочену інформацію

dc.contributor.authorВарер, Б. Ю.uk
dc.contributor.authorМокін, В. Б.uk
dc.contributor.authorMokin, V. B.en
dc.contributor.authorVarer, B. Yu.en
dc.date.accessioned2025-08-13T09:51:16Z
dc.date.available2025-08-13T09:51:16Z
dc.date.issued2025
dc.identifier.citationВарер Б. Ю., Мокін В. Б. Дослідження впливу взаємодії різних моделей на розподіл ймовірностей наступного токена у великих мовних моделях // Матеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р. URI: https://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/25613.uk
dc.identifier.isbn978-617-8163-57-0
dc.identifier.urihttps://ir.lib.vntu.edu.ua//handle/123456789/48228
dc.description.abstractДосліджено вплив зміни великої мовної моделі при фіксованому контексті на розподіл ймовірностей наступного токена, у порівнянні з впливом зміни контексту при фіксованій моделі. Проведено експериментальне порівняння факторів зміни моделі та зміни контексту з використанням моделей Meta LLaMA 3.2-3B та Microsoft Phi 4-mini на датасеті з 60 питань з різних предметних областей. За допомогою дивергенції Дженсена-Шеннона встановлено, що зміна моделі при фіксованому контексті призводить до змін у розподілі наступного токена (JSD 0.640-0.678), які є співставні за величиною зі зміною контексту при фіксованій моделі (JSD 0.638-0.721). Результати підтверджують важливість оптимального вибору моделей під час проєктування ефективних систем штучного інтелекту.uk
dc.description.abstractThe influence of changing a large language model with fixed context on the distribution of next token probabilities was investigated, compared to the influence of changing a context with a fixed model. An experimental comparison of model change and context change factors was conducted using Meta LLaMA 3.2-3B and Microsoft Phi-4-mini models on a dataset of 60 questions from various subject domains. Using Jensen-Shannon divergence, it was established that changing the model with fixed context leads to changes in the next token distribution (JSD 0.640-0.678) that are comparable in magnitude to changing context with a fixed model (JSD 0.638-0.721). The results confirm the importance of optimal model selection when designing ef ective artificial intelligence systems.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofМатеріали Всеукраїнської науково-практичної інтернет-конференції «Молодь в науці: дослідження, проблеми, перспективи (МН-2025)», Вінниця, 15-16 червня 2025 р.uk
dc.relation.urihttps://conferences.vntu.edu.ua/index.php/mn/mn2025/paper/view/25613
dc.subjectвеликі мовні моделіuk
dc.subjectкооперація моделейuk
dc.subjectагентні системиuk
dc.subjectдивергенція Дженсена-Шеннонаuk
dc.subjectрозподіл ймовірностейuk
dc.subjectштучний інтелектuk
dc.subjectcompared to the influence of changing a context with a fixed model An experimental comparison ofuk
dc.subjectlarge language modelsen
dc.subjectmodel cooperationen
dc.subjectagent systemsen
dc.subjectJensen-Shannon divergenceen
dc.subjectprobability distributionen
dc.subjectartificial intelligenceen
dc.titleДослідження впливу взаємодії різних моделей на розподіл ймовірностей наступного токена у великих мовних моделяхuk
dc.typeThesis
dc.identifier.udc004.8
dc.relation.referencesLi X. та ін. A survey on LLM-based multi-agent systems: workflow, infrastructure, and challenges // Vicinagearth. – 2024. – Т. 1, № 1. – С. 9. – DOI: 10.1007/s44336-024-00009-2. – ISSN 3005-060X.en
dc.relation.referencesShen Y. та ін. HuggingGPT: solving AI tasks with ChatGPT and its friends in Hugging Face // Advances in Neural Information Processing Systems. – 2023. – Т. 36. – С. 38154–38180.en
dc.relation.referencesHong S. та ін. METAGPT: meta programming for a multi-agent collaborative framework // Proceedings of the 12th International Conference on Learning Representations (ICLR 2024), Vienna (Austria), 7–11 May 2024. – 2024. – Текст : електронний ресурс. – URL: https://github.com/geekan/MetaGPT (дата звернення: 10.06.2025).en
dc.relation.referencesJiang D., Ren X., Lin B. Y. LLM-Blender: ensembling large language models with pairwise comparison and generative fusion // Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (ACL 2023), Toronto (Canada), 9–14 July 2023. – 2023. – С. 14165–14178. – DOI: 10.18653/v1/2023.acl-long.792. – URL: https://aclanthology.org/2023.acl-long.792 (дата зверн.: 10.06.2025).en
dc.relation.referencesVaswani A. та ін. Attention is all you need // Advances in Neural Information Processing Systems. – 2017. – Т. 30. – С. 5998–6008.en
dc.relation.referencesLin J. Divergence measures based on the Shannon entropy // IEEE Transactions on Information Theory. – 1991. – Т. 37, № 1. – С. 145–151. – DOI: 10.1109/18.61115. – ISSN 0018-9448.en
dc.relation.referencesMeta AI. LLaMA 3.2-3B-Instruct: multilingual large language model // Hugging Face : [Електронний ресурс]. – 2024. – URL: https://huggingface.co/meta-llama/Llama-3.2-3B-instruct (дата зверн.: 10.06.2025). 8. Microsoft Research. Phi-4-mini-instruct: small language model // Hugging Face : [Електронний ресурс]. – 2025. – URL: https://huggingface.co/microsoft/Phi-4-mini-instruct (дата зверн.: 10.06.2025).en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію