| dc.contributor.advisor | Колесницький О. К. | uk |
| dc.contributor.author | Недашківський, Є. А. | uk |
| dc.contributor.author | Nedashkivskyi, Y. | en |
| dc.date.accessioned | 2025-08-29T12:25:00Z | |
| dc.date.available | 2025-08-29T12:25:00Z | |
| dc.date.issued | 2025 | |
| dc.identifier.citation | Недашківський Є. А. Особливості використання івриту у великих мовних моделях: обмеженість даних та виклики мультимовності // Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р. Електрон. текст. дані. 2025. URI:
https://conferences.vntu.edu.ua/index.php/all-fbtegp/all-fbtegp-2025/paper/view/24329 | uk |
| dc.identifier.isbn | 978-617-8132-48-8 | |
| dc.identifier.uri | https://ir.lib.vntu.edu.ua//handle/123456789/48940 | |
| dc.description.abstract | У статті розглядаються проблеми, пов'язані з використанням івриту у великих мовних моделях (LLM), зокрема обмежена кількість навчальних даних та нерівномірне розподілення моделювальної уваги у мультимовних архітектурах. Проаналізовано сучасні підходи до покращення підтримки малоресурсних мов. | uk |
| dc.description.abstract | The paper discusses the challenges of using Hebrew in large language models (LLMs), particularly the limited amount of training data and uneven distribution of modeling capacity in multilingual architectures. Modern approaches to improving low-resource language support are analyzed. | en |
| dc.language.iso | uk_UA | uk_UA |
| dc.publisher | ВНТУ | uk |
| dc.relation.ispartof | Матеріали LIV Всеукраїнської науково-технічної конференції підрозділів ВНТУ, Вінниця, 24-27 березня 2025 р. | uk |
| dc.relation.uri | https://conferences.vntu.edu.ua/index.php/all-fbtegp/all-fbtegp-2025/paper/view/24329 | |
| dc.subject | великі мовні моделі | uk |
| dc.subject | іврит | uk |
| dc.subject | малоресурсні мови | uk |
| dc.subject | мультимовність | uk |
| dc.subject | нейронні мережі | uk |
| dc.subject | обробка природної мови | uk |
| dc.subject | large language models | en |
| dc.subject | Hebrew | en |
| dc.subject | low-resource languages | en |
| dc.subject | multilinguality | en |
| dc.subject | neural networks | en |
| dc.subject | natural language processing | en |
| dc.title | Особливості використання івриту у великих мовних моделях: обмеженість даних та виклики мультимовності | uk |
| dc.type | Thesis | |
| dc.identifier.udc | 004.89 | |
| dc.relation.references | Ethnologue: Languages of the World. 26-е вид. Dallas, TX: SIL International, 2023. – С. 539. | en |
| dc.relation.references | Mou C., Nguyen A., Shao Y. та ін. CulturaX: Investigating Large-Scale Multilingual Data for LLMs [Електронний ресурс]. – arXiv:2305.14556, 2023. – Режим доступу: https://arxiv.org/abs/2305.14556 | en |
| dc.relation.references | Shmidman S., Shmidman A., Koppel M. та ін. Adapting LLMs to Hebrew: Unveiling DictaLM 2.0 [Електронний ресурс]. – arXiv:2401.06230, 2024. – Режим доступу: https://arxiv.org/abs/2401.06230 | en |
| dc.relation.references | Brown T., Mann B., Ryder N. та ін. Language Models are Few-Shot Learners [Електронний ресурс]. – arXiv:2005.14165, 2020.
– Режим доступу: https://arxiv.org/abs/2005.14165 | en |
| dc.relation.references | Touvron H., Lavril T., Izacard G. Та ін. LLaMA 2: Open Foundation and Fine-Tuned Chat Models. [Електронний ресурс]. –
arXiv:2307.09288, 2023. – Режим доступу: https://arxiv.org/abs/2307.09288 | en |
| dc.relation.references | Eyal M., Noga H., Aharoni R., Szpektor I., Tsarfaty R. Multilingual Sequence-to-Sequence Models for Hebrew NLP // Findings of the Association for Computational Linguistics: ACL 2023. – 2023. – С. 7700–7708. | en |
| dc.relation.references | Tsarfaty R., Seker A., Sadde S., Klein S. What’s Wrong with Hebrew NLP? And How to Make it Right [Електронний ресурс]. – arXiv:1903.10682, 2019. – Режим доступу: https://arxiv.org/abs/1903.10682 | en |
| dc.relation.references | Wang Z., Lipton Z., Tsvetkov Y. On Negative Interference in Multilingual Models: Findings and A Meta-Learning Treatment [Електронний ресурс]. – arXiv:2010.03017, 2020. – Режим доступу: https://arxiv.org/abs/2010.03017 | en |
| dc.relation.references | Conneau A., Lample G., Ranzato M. та ін. Unsupervised Cross-lingual Representation Learning at Scale // Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. – 2020. – С. 8440–8451. | en |
| dc.relation.references | Pfeiffer J., Rücklé A., Gurevych I., Cho K. AdapterFusion: Non-Destructive Task Composition for Transfer Learning [Електронний ресурс]. – arXiv:2005.00247, 2020. – Режим доступу: https://arxiv.org/abs/2005.00247 | en |